PC Update 53

Page 1

Le hardware, avec passion, sans concession

Mai /Juin 2011

dossier

n°53

5,90 €

p.28

Les questions

p.122

essentielles

de la micro réponses claires pour devenir un vrai pro!

Testez votre niveau :

le quizz du hardware PC

test

Radeon 6790

Nouvelle référence jeu 1080p à 130 € p.106

comparatif

7 ventirads CPU 120mm et plus

Prolimatech Genesis VS Scythe Susanoo Les nouveaux poids-lourds p.112

test

le P67 ideal

Asrock P67 Fatal1ty, Asus Maximus IV

comparo

p.94

best of

GTX500 et HD6900 custom

test

p.20

Tablettes

Android

Que valent elles vraiment ?

silence, look et EEE Slate : une alternative PC performances à volonté très séduisante ! flashage, mode d’emploi : vos composants toujours au top

Intel SSD 320

la relève du X25-M

Obsidian 650D merveille in black

L 18982 - 53 - F: 5,90 € - RD

BEL/LUX : 6,5 € - CH : 11,80 FS - CAN : 10,25 $ DOM: 6,10 € NCL/S : 710 CFP - NCL/A : 1500 CFP - POL/S : 750 CFP


nano_pc-update_210x287mm_20110414.FH11 Thu Apr 14 10:33:43 2011

Seite 1 C

M

Y

CM

MY

CY CMY

K


PC UPDATE 53 Mai/Jui 2011

La vie de la rédac

Version 0.8.9 beta 53

EDITO Encore un mois riche en geekeries à la rédac ! Après y avoir gouté l’été dernier, Thomas décide de se lancer pour de bon dans le jeu tri-écran. Une occasion de solliciter un peu plus ses deux GTX480 (Ndbenji : des cartes has been, s’il en est !) qu’avec Word, Winamp et MSN Live. Mais à une seule condition, pouvoir brancher un quatrième écran afin de garder un œil sur MSN, le mail et compagnie durant une partie endiablée qui occupe les 3 écrans principaux ! Alors là, si l’on écoute nVidia, pas de problème, c’est possible. Sauf que, non contents d’imposer une solution SLI pour jouer en « surround » (3 écrans), il faut brancher une troisième carte graphique pour bénéficier d’un écran annexe ! Heureusement que la carte mère du goinfre dégouline de ports, l’occasion d’y rajouter une bonne vieille 8800 GT. Ça fera un GPU dédié PhysX, na ! Arrive alors un problème de taille : 4 écrans, c’est sacrément large. Le bureau est trop petit ? Pas de problème, la table de la salle à manger ne reçoit des convives que pour le réveillon du nouvel an de toute façon. Et bien n’empêche que même sur la table, 4 écrans, c’est sacrément large. Après quelques essais, avec écrans au-dessus du vide, avec écrans réglés en portrait, rien n’y fait. D’un coup, c’est le déclic : pourquoi ne pas loger le 24" au-dessus des 3* 23" pour jouer ? Et puisqu’il a deux 24", pourquoi ne pas les utiliser ? Et voilà comment, après des heures de configuration d’un driver récalcitrant, l’énergumène crane dur avec son PC à 5 écrans. Il faut avouer que jouer en 5920x1080 avec deux écrans 1920x1200 pour profiter de la TV, de MSN et du Web en même temps, c’est pas commun… mais bien fait pour lui : son PC plante tout le temps désormais ! D’après lui, c’est tantôt la faute des CPU, tantôt celle de la RAM, toujours est-il qu’il n’y avait pas autant d’écrans bleu lorsqu’il jouait sur un seul 24". Le chef qui crane avec ses trois 27" – ça occupe déjà un bureau de 2 mètres – peste quant à lui sur les vicissitudes du HDMI. C’est qu’il a relié la sortie de sa Radeon à son ampli mais uniquement pour le son. Sauf que l’ampli est reconnu comme 4ème écran virtuel et que lui met une pagaille pas possible. Applications Adobe qui plantent en essayant de se loger obstinément sur l’écran qui n’existe pas, Picasa qui devient invisible, les fenêtres Windows qui se baladent (vive le shift-windows fleches pour les retrouver), de quoi devenir chèvre. Visiblement, Microsoft n’a pas pris en compte la possibilité d’utiliser le hdmi uniquement pour le son alors que c’est une des meilleures solutions qui soient, tant pour les jeux que les films. Dommage… Toujours à propos d’écrans, un « miracle » s’est produit chez le n00b. Ses deux magnifiques Dell 27" fonctionnent à 50% chacun (véridique, pile 50% de la dalle ok, 50% hachés de rayures grises, soit un 27"utilisable en tout, avec une (très grosse) barre noire au milieu). Une chiquenaude arrive à les remettre dans le droit chemin de temps en temps, le jeunot est devenu un expert en lancer du pouce… La prochaine fois que vous aurez une galère, consolez-vous en songeant qu’on peut avoir 15 ans d’expérience dans le hardware ou être champion d’overclocking et ramer comme un bleu ;) Mais on ne peut conclure sans saluer une nouvelle fois le chef qui, réussissant là où tout le monde échoue, s’est procuré à la fois une tablette Android et un tablet PC dernier cri (Asus Slate). Depuis leur arrivée, c’est simple : il râle, il critique… mais il passe sa vie dessus si bien que nous ne le voyons plus. Le soleil exagérément présent n’y est pas peut être pas pour rien, mais il ne faudrait pas briser le mythe du geek tout pale qui ne sort de sa tanière que pour ravitailler en café ! Vexé de ne pas pouvoir profiter d’Android 3.0, Thomas aura une énième fois bidouillé son bon vieux téléphone HD2 pour y installer la dernière version de l’OS pour Smartphone, Android 2.3.3 (cet HTC aura connu WM 6.1, WM 6.5, Android 2.1, Android 2.2 avant !). Décidément, ils sont fous là-dedans !

La rédaction

Courrier des lecteurs : Email : lecteurs@techage.fr Abonnements : Axiome Abonnement Presse PCUpdate L’Engarvin 06390 COARAZE Pour tout renseignement sur les abos : 06 26 64 23 29 abo@axiomegroup.biz

Administrateur délégué et Directeur de la publication : Christian Marbaix RDC délégué : Thomas Olivaux Chef de rubrique : Benjamin Bouix Rédacteurs : Tridam ; Pierre Caillault ; Manuel Da Costa Agence de presse MPM Editions RDC : Jérémy Panzetta Imprimeur : M Arts Graphiques imprimé en Italie sur papier 100% recyclé

Conception graphique : David Benamou Maquettiste : Cyril Albo Publicité : Régie COM’CONSULT Stéphanie Chauvin techage@comconsult.fr N° de commission paritaire : 0113 U 82571 Dépôt légal : deuxième trimestre 2011

PCUpdate est édité par Tech.Age SA au capital de 78300 €,

53, route d’Arlon, L-1140 Luxembourg L’envoi de tout texte, photo ou vidéo implique l’acceptation par l’auteur de leur libre publication dans le journal. Les documents ne sont pas retournés. La loi du 11 mars 1957 n’autorisant aux termes des alinéas 2 et 3 de l’article 41 d’une part que « des copies ou reproductions strictement réservées à l’usage du copiste et non destinées à une utilisation collective» et d’autre part que les analyses et courtes citations dans un but d’exemple et d’illustration, « toute représentation ou reproduction, intégrale ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » (alinea premier de l’article 40). Cette représentation ou reproduction, par quelques procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants de l’ancien code pénal.

Textes, photos : copyright 2011 Tech.Age SAS


28 94 116 120 20 PC UPDATE 53 Mai/Jui 2011

SOMMAIRE News 6 12

doutes, particulièrement pendant les phases d’achat, mais aussi à la moindre panne ou bug. Et entre ces deux moments fatidiques, interviennent 1 000 autres raisons de se poser des questions sur un point technique, qu’il soit théorique ou très pragmatique. Ce dossier réunit les plus essentielles, celles qui vous rendront forcément service tôt ou tard. Et en bonus, un quiz, pour savoir où vous en êtes !

Le meilleur du hardware Cas pratiques

Test 20

Tablettes ou Tablet PC, quel sera l’avenir du mobile ? Nous en avons longtemps rêvé. On les présente même comme des tueuses de PC portables. Au-delà de l’effet de mode, voyons – enfin – ce que les fameuses tablettes tactiles ont dans le ventre. Dotées d’un vrai capital séduction, il est vrai, elles restent extrêmement limitées. Surtout si on les compare à la génération 2011 des Tablet PC qui, elle, a les vraies qualités pour remplacer un notebook !

Dossier 28

Les questions essentielles de la micro La micro, le hardware PC sont peuplés d’interrogations et de

Pratique 78

Les softs du mois

80

Geekitude

84

Amahi, un serveur personnel gratuit sur mesure

Alors qu’un NAS se veut prêt à l’emploi, installer un serveur paraît compliqué. Amahi, un serveur domestique libre et gratuit s’appuyant sur la distribution Linux Fedora, tente d’y remédier.

Rétrocomputing 70

30 ans de CPU PC, 2e partie : du Pentium au Core i7 Après les fringants ancêtres dans Hardware Magazine n° 52, l’histoire des CPU continue avec le Pentium, processeur phare des années 90. (Re)découvrez les nombreuses innovations technologiques et le chemin parcouru depuis, sans oublier celles des outsiders les plus célèbres, comme le Cyrix 6x86 ou les AMD Athlon et Athlon 64 ! Y compris des benchs qui ne manqueront pas de vous surprendre.

88

N’ayez plus peur du flashage, mettez à jour SSD, carte mère, carte graphique Pour bénéficier de nouvelles fonctionnalités, de corrections de bugs ou encore de meilleures performances, le flashage est parfois nécessaire. Nous détaillons ici cette manipulation parfois compliquée et risquée, mais pourtant si utile.


Comparatif 94

16 cartes graphiques torturées, les meilleures GTX500 et HD6900 Les sorties de GPU s’accumulent et leurs versions customisées par les constructeurs apparaissent en masse. Six GTX560 Ti mais aussi des GTX570 et 580, ainsi que la HD6970, sont retravaillés. Nous testons ici seize cartes prétendant toutes à plus de silence et/ou d’overclocking, sans parler de leur look, plus aguicheur que les affreux pavés noirs d’origine.

106 be quiet!, Prolimatech, Scythe, Thermalright…

6 ventirads CPU top performances

Entre les monstres tels les Prolimatech Genesis et Scythe Susano, l’ultraefficacité du Thermalright Archon et le watercooling tout-en-un amélioré du Corsair H60, l’actualité des ventirads CPU est loin de se calmer. De nouveaux records à la clé ?

Tests

112 SSD Intel 320 : la relève des Postville

Après un SSD 510 très performant, la série 320 gravée en 25 nm remplaçe les populaires X25-M. Les performances progressent mais le les tarifs ne suivent pas.

114 Hitachi 5K3000 3 To : le silence est d’or

Après un disque dur 3 To en 7 200 tours/min, Hitachi dévoile sa version « green » 5K3000. Outres de faibles consommations et nuisances sonores, ses performances en font une nouvelle référence, à quelques bémols près.

116 ASRock Fatal1ty P67 Professional et Asus

Maximus IV Extreme, le P67 supersport

Entre ASRock qui adopte un look hypergamer avec la Fatal1ty P67 Pro et la monstrueuse Asus ROG Extreme, découvrez deux des cartes P67 les plus sexy du marché.

53 NUMERO

AU TOP 20

Asus EeePad Slate

94

MSI GTX580 Lightning

Un Core i5 et Windows 7 dans une tablette 12’’.

Une super GTX580 pour overclockers, le silence en prime.

120 Soundscience Rockus 3D 2.1,

le son HQ par Antec

Le nombre de kits 5.1 diminue en faveur des 2.1 de qualité. Concurrencant l’impressionnant Corsair SP2500, le Logitech Z623 et le Creative GigaWorks T3, ce Rockus 3D d’Antec a fort à faire.

106 Prolimatech Genesis

Jusqu’à 3 ventilateurs 140 mm pour titiller le Noctua NH-D14.

122 Radeon HD 6790, HD 6670, HD 6570 et

HD 6450 : jouer pour pas cher avec AMD ?

Radeon HD 6800 castrée et petits GPU à la puissance de calcul en hausse sont au menu.

116 ASRock Fatal1ty P67

Aussi désirable qu’une ROG, un prix ASRock.

132 Corsair Obsidian 650D et CM Storm Enforcer Troisième réussite de la gamme Obsidian, le 650D de Corsair montre une fois de plus le savoir-faire du constructeur face au Cooler Master Enforcer, sorte de HAF 912 au look retravaillé.

136 Les PC de référence de la rédac

132 Corsair 650D

La classe et la qualité des Obsidian à 180 €.


news

Un mois de hardware

PCU53

Le mois de mars aura vu la passe de pouvoir entre Windows XP et 7 pour l’OS le plus répandu avec 32,81 % de parts de marché. L’Europe suit cette même tendance, remisant enfin au placard un XP datant d’octobre 2001 ! AMD devrait lancer au troisième trimestre 2011 un C-60, soit un Ontario identique au C-50 présent dans les netbooks, mais pouvant augmenter la fréquence du CPU ou de l’IGP de façon dynamique. De 1 000 et 276 MHz, on passerait ainsi à 1 330 et 400 MHz, sans que les deux fréquences soient envisageables en simultané. Le 3 mai, Futuremark lance PCMark 7, un benchmark testant tous les composants du PC (mémoire, CPU, stockage, GPU). 3 mois après Samsung, Hynix annonce son premier module de 2 Go DDR4 ! Au format SODIMM, celui-ci fonctionne à 2 400 MHz et requiert 1,2 V. La production démarrera courant 2012, mais la DDR4 ne devrait pas s’imposer tout de suite (on parle de l’horizon 2014), laissant à la DDR3 encore de belles années devant elle. Embarquant un contrôleur SF-1200, G.Skill a lancé le Phoenix Evo, qui vient épauler le Phoenix. La seule différence concerne la mémoire Flash embarquée, on passe de NAND 34 à 25 nm, comme sur le Phoenix II enSF-2200. Crysis 2 est sorti et comme prévu, il n’est pas aussi gourmand que son prédécesseur. Il est possible d’y jouer en qualité élevée avec une GTX460 1 Go. Toutefois, le jeu n’utilise que DX9, alors qu’un patch DX11 est en préparation mais toujours pas arrivé. Ce sera l’occasion d’y rejouer, en plus beau. Conçue pour les notebooks qui ont souvent un chip son de piètre qualité, la microcarte son USB Asus U3 sort à 30 €. Indispensable pour une écoute au casque ? Réponse dans notre futur test. Après l’Aurum, l’alimentation Gold la moins chère, FSP renouvelle son entrée de gamme. Lookées dans une belle coque noire, façon Antec CX, les HEXA sont vendues en 400 et 500 W pour seulement 30 et 40 € ! Tant attendue, l’application officielle Sonos pour Android est désormais disponible, gratuitement. Pour les fans d’Apple, Sonos est désormais compatible Airplay et, une fois n’est pas coutume, sans licence payante !

6 PC Update

Encore de nouveaux Xeon

Après les Xeon E7 alias Westmere-EX, c’est au tour des Xeon E3 basés sur Sandy Bridge d’être annoncés. Il s’agit de l’équivalent des Core i3, i5 et i7 2000 que l’on connaît déjà. Parmi ces 12 puces, certaines ont retenu notre attention, comme l’E3-1230, un Core i7 2600K cadencé à 200 MHz plus bas, mais vendu près de 80 € moins cher. Bien qu’utilisant un socket 1155, ils sont annoncés comme étant incompatibles avec les chipsets grand public (P67 et H67 notamment), ils requièrent, en effet, des chipsets C200 pour fonctionner. Nous ne manquerons pas de vérifier tout cela en pratique. Intel n’a pas abandonné son projet visant à supplanter les GPU En marge, lors de l’IDF, Intel a annoncé que nVidia sur les calculs parallèles grâce a de nombreux cores x86. ses futurs Itanium verraient le jour en 2012. Ici le die d’Aubrey Isle, composé de pas moins de 32 cores ! Ces CPU octocores principalement destinés aux Sparc et Power de HP n’ont rien d’intéressant, si ce n’est la prouesse technique qu’ils représentent. Alors que les Core i7 hexacores grand public embarquent 1,17 milliard de transistors et 12 Mo de cache L3, les Itanium « Poulson » compteront 3,1 milliards pour 32 Mo de cache L3 et 54 Mo de SRAM (divers niveaux de cache et d’instructions) ! En outre, Intel a dévoilé le MIC, pour Many Integrated Cores. Il s’agit ici d’un dérivé de Larrabee, qui utilisera « un grand nombre de cores » pour venir concurrencer le GPGPU sur le marché professionnel, ainsi, grâce à une optimisation des rendus massivement parallèles et à une cinquantaine de cores x86 gravés en 22 nm et qui prennent place sur une carte PCI-Express. Cette solution sera distribuée à quelques privilégiés, triés sur le volet, qui serviront de bêta testeurs jusqu’à la fin de l’année.

Le Z68 enfin dans les bacs

Attendu comme le messie par beaucoup, le Z68 arrive enfin. Inutile d’espérer quoi que ce soit concernant l’overclocking, les Sandy Bridge sont toujours bloqués aux mêmes fréquences qu’avec le P67. On pourra toutefois overclocker le CPU et profiter en même temps de l’IGP, voire l’overclocker lui aussi. En prime, Lucid Virtu sera intégré sur quelques cartes mères, permettant de switcher entre l’IGP et la carte graphique et ainsi de réduire la consommation au repos. Ce chipset devrait rencontrer un franc succès puisqu’il mélange les avantages du P67 et du H67, alors qu’on devait jusque-là choisir entre l’un ou l’autre. Nous ne manquerons pas de vous proposer un comparatif des nouvelles cartes mères, ainsi qu’une analyse de la plateforme d’ici le prochain numéro.


Swiftech Polaris 120 et Zalman CNPS11X Extreme

Zalman CNPS11X Extreme. Un look différent, une excellente finition, des résultats satisfaisants.

C

UPDAT

Le Polaris marque le retour de Switech à l’air cooling. Un bruit de fou un refroidissement au top.

rieur, il devance légèrement les Noctua NH-U12, Prolimatech Super Mega et autres Thermalright Archon ! Egaler un D14 avec une seule tour et à moins de 60 €, pas mal. Mais comme nous l’avons dit, son ventilateur est une vraie turbine. Testé avec des modèles plus silencieux, dont le classique Noctua NF-P12 en 7 et 12 V, ses aptitudes s’effondrent. En bref, c’est un produit que nous recommandons pour les utilisateurs en quête d’un bon rapport performances/prix, mais qui se fichent du bruit. Après le CNPS10X Extreme, Zalman sort logiquement le CNPS11X Extreme. Son ancien design en turbine définitivement abandonné, Zalman cherche tout de même à se démarquer en ne proposant pas une énième tour 120 mm. En fait, le 11X est une sorte de triangle isocèle avec deux petites tours en V à 60°, comme un bloc-moteur en V, le troisième côté étant fermé par le ventilateur de 120 mm. La chaleur est transmise de la base aux fines et nombreuses ailettes par cinq caloducs de 6 mm. Nous avons reproché aux derniers Zalman d’être plus bruyants que les modèles illustres, le constructeur livre un réducteur qui plafonne la régulation automatique du ventilateur PWM (qui éclaire en bleu) à 1 450 tours par minute au lieu de 1 950. La fixation n’a pas évolué, elle n’est pas franchement très pratique à installer comparée à celle de Noctua ou Prolimatech. La finition, comme souvent chez Zalman, est d’un très bon niveau. Le tarif n’est pas encore connu, mais il y a fort à parier qu’il débarque entre 60 et 70 €, comme le CNPS10X Extreme en son temps. Le bruit du CNPS11X est en nette baisse, sans être pour autant inaudible en 12 V, comparable à un Noctua sans réducteur. Le refroidissement est très correct, mais s’il parvient à battre des modèles milieu de gamme comme le Scythe Yasya, il fait partie des ventirads les moins efficaces de son niveau de prix. Si vous adhérez à son look et appréciez les bonnes finitions, pourquoi pas. N’oublions pas que les CPU les plus en vogue actuellement (Core iX-2000) ne chauffent que très peu, ils s’en contentent très bien.

E

Pour une majorité de gens, Swiftech est un grand nom du watercooling. Pourtant, au début des années 2000, la marque était au top de l’aircooling avec sa série MC370, parvenant à prendre le leadership sur le Japonais Alpha, premier grand nom du refroidissement à hautes performances. Le Polaris 120 signe donc le grand retour à l’air de la société américaine. Abandonnant la traditionnelle base épaisse plantée d’une collection de tiges filetées, le Polaris 120 est une tour 120 mm comme la majorité des ventirads CPU hautes performances. Contrairement à beaucoup de concurrents, il est asymétrique et seul un ventilateur (livré) peut être fixé (le dos est légèrement arrondi). Les ailettes sont repliées à leurs extrémités droite et gauche, fermant ainsi les deux côtés du radiateur ; l’air, aspiré par le ventilateur, est obligé de traverser jusqu’à l’arrière, il n’y a pas de perte sur les côtés. Venant renforcer cette volonté d’échange maximal avec les caloducs, un trou à la forme particulière existe au centre des ailettes, en face de la partie moteur du ventilateur qui n’expulse pas d’air, afin de bien guider le flux. Les cinq caloducs de 8 mm sont en contact direct avec le CPU, ce n’est généralement pas gage de qualité. La finition est néanmoins très bonne. Le ventilateur, très léger, fait peur à voir ; il ressemble à ces ventilos bas de gamme et bruyants. D’ailleurs, c’est un PWM qui va de 750 à carrément 2 500 tours (84 CFM !), il y a de quoi craindre le pire. Son fil est gainé noir, la prise est noire. La fixation manque de simplicité, mais il n’y a aucune complication insurmontable. A l’essai, c’est une vraie surprise ! Très bruyant, il est superperformant ! Pour un prix infé-

P

Arrivés trop tard, les ventirads Swiftech Polaris 120 et Zalman CNPS11X Extreme sont également deux produits haut de gamme qui avaient leur place dans notre comparatif. Nous les avons néanmoins testés dans les mêmes conditions que les autres et vous pourrez même comparer leurs performances sur les graphiques de température et de bruit de l’article page 106.


HÉBERGEMENT MUTUALISÉ REDONDÉ :

1&1 DUAL H O

&

SÉCURITÉ REDOUBLÉE AVEC LA REDONDANCE GÉOGRAPHIQUE ! Un site indisponible peut avoir des conséquences désastreuses. Grâce à la redondance géographique, les nouveaux packs Dual Hosting 1&1 vous offrent désormais une sécurité maximale ! Votre site Web est dorénavant hébergé simultanément dans deux de nos centres de données ultramodernes. Si un incident se produit dans le premier centre, les serveurs du deuxième prennent le relais. Votre site reste de ce fait toujours opérationnel et vous avez la garantie de ne perdre aucune donnée.

FR102020100134_420x287+105x287_28L.indd 1

13.04.11 15:26


H OSTING Des compétences, un savoir-faire et une qualité de service qu’aucun autre hébergeur que 1&1 ne peut vous proposer : 1&1 allie 20 ans d’expérience dans l’hébergement Web à une technologie de pointe mise en œuvre dans des centres de données européens haute performance. Notre avance technologique est assurée par la contribution en interne de plus de 1000 développeurs. NOUVEAUTÉ : 1&1 est maintenant le premier hébergeur au monde à vous fournir une sécurité redoublée grâce aux packs Dual Hosting et la redondance géographique. Et le tout à un prix défiant toute concurrence !

Sécurité redoublée : Redondance géographique Performance maximale : Serveurs haut de gamme Rapidité exceptionnelle : Connectivité de 210 Gbit/s Hébergement vert : Energie renouvelable

NOUVEAU ! 1&1 DUAL ILLIMITÉ ■ 4 noms de domaine INCLUS ■ Espace disque ILLIMITÉ ■ Trafic ILLIMITÉ ■ Bases de données MySQL ILLIMITÉES ■ Comptes email ILLIMITÉS ■ Accès FTP ILLIMITÉS ■ Applications Click & Build ILLIMITÉES (au choix parmi 65 applications à installer en 1 clic) ■ 1&1 WebStat ■ PHP5, PHP Dev, Zend Framework, Ruby, SSI, Accès SSH, gestionnaire de version Git ■ Disponibilité réseau de 99,99 % ■ NOUVEAU : redondance géographique ■ Et bien plus encore !

1&1 DUAL

ILLIMITÉ

9

,99€ HT/mois 11,95 € TTC/mois

19,99€

HT/mois (23,91 € TTC/mois)

-50% pendant 6 mois *

Découvrez d’autres packs sur la page suivante. Toutes nos solutions d’hébergement en détail sur notre site Internet.

Innovation permanente : 1000 développeurs en interne

Appelez le 0970

808 911 (appel non surtaxé) ou consultez notre site Web

www.1and1.fr

* 1&1 Dual Illimité est à -50 % pendant 6 mois sous réserve d’un engagement de 12 mois. A l’issue des 6 premiers mois, ce pack est au prix habituel de 19,99 € HT/mois (23,91 € TTC/mois). Frais de mise en service de 11,95 € TTC. Conditions détaillées sur 1and1.fr. Offre sans engagement également disponible.

FR102020100134_420x287+105x287_28L.indd 2

13.04.11 15:27


news

Intel et les rumeurs

Pas moyen de vérifier la véracité des informations circulant actuellement, mais vu leur cohérence et l’arrivée prochaine de puces AMD, de telles fuites sont plausibles. Commençons par le plus attendu et le plus imminent, le X79 successeur du X58, qui devrait sortir entre octobre et la fin de l’année. Socket 2011, PCI-Express 3.0 et le support des Sandy Bridge-E. Trois modèles sont pressentis. Un quad core cadencé à 3,6 GHz et doté de 10 Mo de cache L3, un hexacore à 3,2 GHz et 12 Mo de L3 et enfin,

un Extreme Edition hexacore à 3,3 GHz et 15 Mo de L3. Tous supportent l’HyperThreading et le plus petit des trois devrait tenir en respect le Core i7 2600K, tant en termes de tarif que de performances. Les processeurs Ivy Bridge, remplaçants des Sandy Bridge d’ici 2012, sont aussi concernés par ces fuites. Ils seraient donc compatibles avec certains chipsets de la série 6. Les CPU consisteraient en un simple die shrink en 22 nm des actuels Core 2000, mais le chipset Panther Point supporterait l’USB 3.0, le PCI-Express 3.0 et trois sorties vidéo indépendantes.

Bulldozer sur socket AM3

Si les deux rapprochements sont autorisés, près de 90 % du marché mondial du disque dur sera contrôlé par Seagate et Western Digital.

WD/Hitachi vs Seagate/Samsung

Le géant californien Western Digital qui écoule plus de 16 millions de disques par mois a versé 4,3 milliards de dollars pour s’offrir la division stockage d’Hitachi GST. Celle-ci était née en 2003 suite au rapprochement entre Hitachi et IBM et totalisait jusque-là environ 15 % de parts de marché. Quelques semaines plus tard, c’est au tour de Seagate d’annoncer le rachat de la division HDD de Samsung. Cependant, plus que quelques ventes de disques durs de plus, c’est une alliance avec une marque de mémoire Flash qui a motivé cette acquisition. Seagate compte, en effet, développer son activité SSD et s’assurer un approvisionnement en puces lui permettrait de se hisser au niveau des fabricants possédant déjà leur propre usine comme Intel, Micron ou Toshiba. Aussi fort pour équiper les salles serveur géantes ou livrer les HP ou Dell qui commandent par millions d’unités, avec 61 % de parts de marché, on ne sait pas encore si Seagate compte développer des SSD orientés entreprises ou grand public. Toutefois, ces deux rachats n’ont pas encore été validés par les divers gendarmes du commerce. En effet, cela donnerait lieu à deux puissants consortiums contrôlant respectivement 48 et 40 % du marché, laissant comme seul outsider Toshiba, qui se contente des miettes. Cette tendance a été amorcée il y a quelques années, des marques comme Quantum, Maxtor ou Fujitsu ayant été absorbées. La réduction des marges et les moyens industriels nécessaires à leur développement et fabrication a toujours fait des disques durs un marché difficile mais ils sont loin d’avoir disparu de nos PC. Ils suivent leur petit bonhomme de chemin, jouant plus sur le coût au gigaoctet que sur les performances, ce secteur étant désormais réservé aux SSD.

10 PC Update

Il aura fallu un certain temps à AMD avant de confirmer, mais les processeurs Bulldozer qui seront lancés le mois prochain pourront fonctionner sur une carte AM3. Les constructeurs de cartes mères ont d’ores et déjà mis à jour leur site avec la compatibilité de leurs modèles Les Zambezi d’AMD seront les premiers CPU 8 cores pour le grand public. existants. AMD précise toutefois que ce scénario n’est pas recommandé et limiterait les performances des CPU. Si on ne sait pas comment ni pourquoi, on peut supposer qu’il s’agit de menus ajouts, comme le passage de l’HyperTransport de 2.0 à 3.0. Même si les performances baissent un peu, c’est donc toujours préférable à un CPU d’ancienne génération. En parallèle, la firme de Sunnyvale a obtenu la certification USB 3.0 pour ses chipsets A75 et A70M, c’est-à-dire les chipsets haut de gamme pour les Llano desktop et mobiles. Tous deux supporteront donc 4 ports USB 3.0, en plus de 10 à 14 ports USB 2.0. Hélas, les chipsets pour Bulldozer n’auront pas ce privilège, retardant l’implémentation native de l’USB 3.0 à la rentrée 2011. Quant à Intel, il n’y a rien à espérer avant 2012 et les chipsets série 7.

Oak Trail, la réponse d’Intel aux ARM

Alors que les CPU ARM dominent outrageusement le marché des tablettes, Intel lorgne sur ce marché juteux. C’est donc la principale tâche des nouveaux Atom Oak Trail : déloger les Tegra 2, Hummingbird et autres Snapdragon ! Le nouveau Z670 est un monocore gérant l’HyperThreading, fonctionnant à 1,5 GHz et embarquant 512 ko de cache L2. C’est donc à peu de chose près un demi-Atom N450, comme on en trouve dans les netbooks, mais il se passe du 64 bits, du SSE 4.X et de la virtualisation et son contrôleur mémoire ne gère que 2 Go de DDR2. La grosse différence vient d’une solution de décodage des vidéos HD 1080p (à la manière d’Intel Quick Sync apparu sur les processeurs Sandy Bridge) et d’un GMA600 cadencé à 400 MHz. Cette puce fonctionne de pair avec un southbridge SM35 qui gère le SATA, le HDMI, le HD audio et jusqu’à huit USB 2.0. Compatible avec Windows, Linux mais aussi MeeGo et Android, cette plateforme a remplacé le Tegra 2 dans le Slider d’Asus et a été choisie par Samsung pour le PC7. L’ensemble affiche un TDP d’environ 3,75 W et coûte 75 $. Cela paraît assez peu convaincant quand les puces ARM Cortex A9 dual core sont vendues 20 $ et restent en desBien que plus compétitif, l’Atom Z670 n’est toujours pas au niveau sous de 1 W de TDP. des ARM, moins chers, plus économes et plus complets.


&

1&1 HÉBERGEMENT Certification USB 3.0 pour T.I. aussi

Texas Instruments a présenté ses TUS7340 et TUSB7320, pilotant respectivement 4 et 2 ports USB 3.0 et certifiés USB 3.0. Bien que cette certification USB-IF n’ait plus guère d’intérêt, elle permet au moins d’officialiser un certain niveau de qualité. Ces deux contrôleurs sont reliés via une seule ligne PCI-Express 2.0 (500 Mo/s), ce qui ne permettra pas de satisfaire le besoin en bande passante des 4 ports (600 Mo/s chacun), toutefois, le fonctionnement d’un seul port devrait être aussi rapide que sur les contrôleurs actuels. La bonne nouvelle vient du prix puisqu’en face, Renesas/Nec propose des puces équivalentes à 20 et 10 $, alors que T.I. se contentera de 5 et 3,50 $. Bien que Renesas/Nec garde une longueur d’avance, les contrôleurs Etron Tech, ASMedia, Fresco et Via employés récemment sur les cartes mères montrent que le marché se diversifie, permettant enfin à l’USB 3.0 de se démocratiser et de devenir compétitif. Texas Instruments a présenté des contrôleurs USB 3.0 dont le coût est quatre fois inférieur à celui des équivalents Renesas/Nec.

LE CHOIX DE LA SÉCURITÉ 1&1 DUAL CLASSIQUE ■ 2 noms de domaine INCLUS ■ 100 Go d’espace disque ■ Trafic ILLIMITÉ ■ 10 bases de données MySQL ■ PHP5, PHP Dev, Zend Framework, Ruby, SSI ■ Et bien plus encore !

1&1 DUAL ESSENTIEL ■ Nom de domaine INCLUS ■ 2,5 Go d’espace disque ■ 10 comptes email ■ Blog et album photo ■ Et bien plus encore !

1

,99€ HT/mois 2,38 € TTC/mois

-50% pendant 6 mois * ,99€ 4,99

HT/mois (5,97 € TTC/mois)

0

,99€ HT/mois 1,18 € TTC/mois

-50%

pendant 6 mois *

,99€ 1,99

HT/mois (2,38 € TTC/mois)

1&1 DOMAINES

.fr.biz Sous l’impulsion de passionnés XBMC, Motorola va fabriquer cette super télécommande/ clavier universelle, IR et RF.

La top télécommande Motorola

TSous l’impulsion de développeurs de la communauté XBMC, le célèbre Media Center open source, Motorola va commercialiser à partir de juin une télécommande universelle très séduisante. Baptisée Nyxboard Hybrid, elle a une face télécommande et une face clavier/souris ! Un gyroscope intégré permet à l’objet de savoir dans quel sens il se trouve, afin de désactiver automatiquement les touches masquées pour éviter toute interférence. Livrée avec un petit dongle USB (aussi petit que les récepteurs des derniers claviers/souris Logitech), elle est à la fois RF, ce qui est génial pour le PC, mais IR pour apprendre et reproduire les codes des télécommandes de vos divers appareils. Nativement compatible avec XBMC, elle devrait l’être également avec Windows Media Center. En attendant sa sortie, vous pouvez d’ores et déjà la précommander sur le site PulseEight (www.pulse-eight. com) qui a participé à sa conception, pour seulement 60 $. Seul bémol, le clavier est de type QWERTY, mais à ce prix, qui va se plaindre ? Une bonne télécommande RF comme feu la Gyration coûtait 90 €, un petit clavier de PC home cinéma RF tel le Logitech mini DiNovo autant !

à partir de 3,99 € HT/an la première année**

Votre nom de domaine à partir de

3

,99€ HT/an 4,77 € TTC/an

Sans frais supplémentaires !

* Les packs Dual Hosting sont à -50 % pendant 6 mois sous réserve d’un engagement de 12 mois. A l’issue des 6 premiers mois, les packs sont aux prix habituels : 1&1 Dual Essentiel à 1,99 € HT/mois (2,38 € TTC/mois) et 1&1 Dual Classique à 4,99 € HT/mois (5,97 € TTC/mois). Frais de mise en service de 5,97 € TTC. ** Le .biz est à 3,99 € HT/an (4,77 € TTC/an) et le .fr à 4,99 € HT/an (5,97 € TTC/an) durant la première année. A l’issue de la première année, le .biz et le .fr sont au prix habituel de 6,97 € HT/an (8,36 € TTC/an).

Découvrez toutes nos solutions d’hébergement en détail sur 1and1.fr

Appelez le

0970 808 911 (appel non surtaxé)

www.1and1.fr


CAS pratiques

Cas pratiques

En nous envoyant une question technique par mail (lecteurs@techage.fr), vous pouvez gagner un SSD Force 60, un kit mémoire Corsair Vengeance (au choix 3*2 Go ou 2*4 Go), une alimentation HX750W ou encore un boîtier Graphite 600T noir ou blanc! La rédaction choisira la question la plus pertinente et son auteur recevra son lot. Notez que nous ne pourrons sans doute pas répondre de manière individuelle à toutes les questions !

Gagnez SSD 60 Go Ou 8 Go de RAM ou une alim 750w Ou un boitier Graphite !

Le son par USB ??

gagnant Corsair

Voila, j’ai, au cours de mon travail, installé un nouvel ordinateur chez une cliente et j’ai branché deux petites enceintes sonores qui n’avaient d’autre connecteur qu’une prise USB ! J’ai cherché en vain une prise jack verte et je me suis dit que ça ne marcherai ainsi jamais. Et…. surprise le son était bien là ! J’ai cherché sur Internet des explications pour comprendre comment le son pouvait bien passer par l’USB sans se servir de la carte son, mais rien. Alors je me tourne vers vous dans l’espoir d’une explication. (l’ordinateur tourne avec Windows 7) Question à priori anodine, mais en fait très intéressante. Effectivement comme vous le remarquez le son peut passer par une simple prise USB. Et ce depuis un certain temps déjà. L’histoire a commencé discrètement avec l’introduction de la norme USB 1.1 qui, dans sa spécification, supportait une classe « USB audio devices ». Et l’un des plus fameux exemple d’enceintes USB a été lancé il y a plusieurs années par Harmann Kardon avec ses SoundSticks 2.1, mi-bocal à poisson, mienceintes. Mais très populaires à l’époque. Bien que limitée à 11 Mbps la bande passante de l’époque permettait de faire transiter du son. Mais avec limites tout de même : 2 canaux d’entrée (stéréo) et 2 canaux en sortie à 48 kHz et sur 16 bit, ou 2 canaux en entrée à 96 KHz et 24 bit mais sans sortie (ou l’inverse). Pour augmenter le nombre de canaux, la fréquence ou l’échantillonnage, il faut passer à l’USB 2.0, dont la bande passante de 480 Mbps est capable de faire passer du son multicanal en 24 bit 192KHz.

Comment ça marche ? Le protocole USB définit quatre moyens de transférer les données : bulk, interrupt, control et isosynchrone. Chacun a ses propres usages. Et pour le transfert du son, c’est le mode isosynchrone qui est utilisé.

Quand un périphérique USB se connecte à un port, l’hôte contrôlant le port reçoit les informations concernant les capacités du périphérique pendant une phase d’initialisation appelée « énumération ». Les périphériques contiennent ces informations formatées dans des descripteurs, dont la structure est précisément définie par la norme USB. Tous les périphériques ayant les mêmes, il est facile pour un hôte d’en identifier l’usage sans avoir besoin de pilote spécifique. Différencier un téléphone USB d’un disque dur ou d’une paire d’enceintes est donc très simple pour l’hôte. Pour transférer des données les périphériques USB utilisent des terminaisons (endpoints). Tous les périphériques USB doivent avoir une terminaison de contrôle par laquelle transitent les données de l’énumération. Les descripteurs lus pendant l’énumération informent sur les terminaisons du périphérique : la direction des flux de donnée (entrée, sortie, ou les deux), la taille maximale des packets, le type de transfert, etc. Après avoir lu les descripteurs, l’hôte détermine comment communiquer avec le périphérique audio. Si l’hôte peut allouer les ressources nécessaires (en électricité et en bande passante), alors l’énumération s’achève sur un succès. Sinon un message d’erreur vous informe du problème. Quand tout est

L’USB est bien capable de faire transiter un signal audio 12 PC Update


bon, les transferts en mode isosycnrone peuvent prendre place, et votre périphérique recevra ou enverra du son.

Une histoire de DACs Le périphérique branché, son usage est rapidement défini par l’hôte. Usage, bande passante, mode de transfert… tout. Quand vous branchez des enceintes ou un casque le PC sait tout de suite quel flux envoyer ou recevoir, et avec quel débit. Le reste n’est qu’une histoire de convertisseurs. Comme avec votre carte son. Le PC va envoyer le son sous forme numérique via le port USB. Ce flux 100% numérique sera interprété et transformé en signal analogique par des convertisseurs Numériques-Analogiques (DAC) pour en faire du son. A l’inverse dans le cas d’un micro-casque ou d’un téléphone, le débit peut se faire dans les deux sens et un convertisseur Analogique-numérique est requis pour transformer le son capté par le micro en flus numérique qui transitera pas l’interface USB, jusqu’au PC. Ces DACs sont similaires à ceux que l’on trouve sur les cartes son : des BurrBrown de chez Ti, des puces Silicon Labs, etc. Ils sont intégrés à des puces contenant l’interface, les générateurs de fréquence, les codecs, etc. Mais les DACs y étant attachés, il est assez simple d’en retrouver les performances audio pures comme le SNR, la dynamique ou la distorsion. Et c’est bien sûr principalement de la qualité de ces convertisseurs que va dépendre la qualité audio générée par le périphérique. Comme sur une carte son, mais en plus compact et intégré au périphérique.

Les processeurs graphiques pour notebooks permettent de jouer, mais leurs performances sont très en dessous de celles de leurs homologues pour PC desktop.

Mieux comprendre les cartes graphiques mobiles J’aimerais avoir votre avis sur certaines cartes graphiques pour jouer sur un portable. Le portable que je souhaite acquérir se situe entre 600 € et 800 € et on me dit souvent que la carte graphique sera la plupart du temps anémique. En cherchant bien, je trouve des GT540M, GT350M et chez AMD, HD5670M voire pour légèrement plus de 800 €, une HD5870M. Sachant que la résolution de ces portables est, en général, de 1 366 x 768 ( sic :( ). J’ai regardé un peu avec mon ami Google les différents benchs et le souci, c’est qu’ils réunissent pour la plupart des résultats bien différents (près de 20 à 30 % de différence entre deux benchs sur un même jeu et sur une même carte graphique). Je ne parle pas du processeur car je trouve que même le plus petit Core i3 de première génération est largement suffisant pour jouer. Voici une petite liste de jeux que je pratique très régulièrement : toute la série des Total War, quelques FPS anciens comme Left 4 Dead, Call of Duty Modern Warfare 2.

Les SoundStick de Harman Kardon sont certainement les plus connues des enceintes USB.

Les cartes graphiques de portable ont très mauvaise presse. Et leur passé récent justifie pleinement cette mauvaise réputation. Pendant de nombreuses années, les fabricants de puces graphiques, tant AMD que nVidia, ont tour à tour renommé de vieux GPU sans aucun scrupule. Le meilleur exemple est sans aucun doute le G92 mobile que nVidia aura renommé sans vergogne, des générations GeForce 9 aux récentes GTS 250 et 310. Le problème était double : le client a une carte graphique dont le nom commercial n’a rien à voir avec l’architecture effective de la carte… et les performances sont logiquement sans lien avec ce que donnaient les équivalents desktop. Pour couronner le tout, la carte graphique a très vite été l’argument marketing numéro 1 des vendeurs de grande surface. Et les constructeurs ont tous cédé à leurs exigences, associant des quantités astronomiques de mémoire graphique (souvent lente et bon marché) à des GPU d’entrée de gamme souvent incapables d’utiliser la moitié de cette mémoire. Mais le marketing n’en est pas à une PC Update 13


CAS pratiques pratique

ânerie près. Inutile, bien sûr, mais indispensable pour forcer la main à un client indécis : « 1 Go de mémoire vidéo, c’est le top. » Et voilà le triste tableau pour les cartes dédiées. Des arnaques… oui, il y en a eu. Quant à la réputation d’anémie, elle vient principalement des cartes graphiques intégrées au chipset et maintenant au CPU. Ces dernières sont parfaites pour tous les travaux 2D, incluant la photo et le montage vidéo (tant que l’accélération GPGPU n’est pas nécessaire). Mais lancez un jeu et c’est le drame.

(144 coeurs) est à plus de 5 000 points. Un peu plus bas dans les gammes, on trouve la GT525M (96 coeurs CUDA à 1 200 MHz associés à de la DDR3 128 bits à 900 MHz). Là encore, la principale différence étant la fréquence, un petit overclocking devrait être bienfaisant. La GT520M, quant à elle, est très nettement en dessous en termes d’architecture : 48 coeurs à 1 480 MHz et de la DDR3 64 bits à 800 MHz. A 3DMark Vantage, cette dernière donne en moyenne 1 500 points, soit près de trois fois moins que la 540M.

Bench impossible

AMD en embuscade

Pour couronner le tout, il est à peu près impossible d’avoir des tableaux de test comparatifs pour les GPU mobiles. Sur un desktop, il est facile de remplacer une carte graphique sans toucher le reste de la configuration. Sur un portable, c’est impossible. La comparaison est donc très dure. A cela, il faut enfin ajouter des caractéristiques floues. Prenez par exemple une GT555M. Il en existe deux : une avec 144 coeurs CUDA à 1 180 MHz, l’autre avec 96 coeurs à 1 506 MHz. Les deux affichent un fillrate identique, mais qu’en est-il dans les jeux ? Impossible à dire. Le marché du mobile est un monde hermétique, volontairement maintenu dans le flou. C’est bien énervant.

Chez AMD, les modèles les plus puissants du moment sont les HD65xx. Une HD6550 réalise un score moyen à 3DMark Vantage de 3 200 points, soit un peu en dessous d’une GT540M. La HD6570 flirte avec les 4 000 points et fait presque jeu égal avec la GT540M. Les générations précédentes sont assez nettement en dessous. Une Radeon HD5660 stagne à 2 700 points en moyenne, alors que la 5730 monte à 3 300 points. La bonne performance étant réalisée par la HD5870M avec plus de 7 700 points en moyenne, et dans les 55 FPS à Crysis en « high ». C’est très bon pour du mobile et si la logique des GPU desktop est respectée, il n’y a aucune raison pour que les Radeon HD68xx mobiles soient plus véloces. Il en résulte une tendance assez nette : sur le très haut de gamme, avec le 5870M, ATi détient la palme et ce GPU devrait permettre de jouer à vos titres fétiches assez simplement. En dessous, ce sont les GT540 qui semblent les plus intéressantes, à condition d’éviter les GT520M.

Impact CPU Il est néanmoins possible de se faire une idée des performances de chacune. La démarche consiste à identifier les performances avec un GPU spécifique, celui que vous voulez acheter, et à extrapoler ces chiffres en fonction du CPU de votre PC et des autres différences hardwares. Ce n’est pas très carré, mais c’est assez pour savoir si un jeu passera ou non. Toutefois, sur un portable, le CPU pourra avoir un impact non négligeable sur les performances. Prenons un exemple : avec une même HD5870M, on peut faire tourner Crysis en 1 280 x 720 à 26 FPS avec un Core i7-820QM, et à 21 FPS avec un i7-720QM. 5 FPS, c’est presque 20 % d’écart.

Performances comparées

Le monde des GPU mobiles est volontairement maintenu dans le flou 14 PC Update

Essayons de clarifier la chose. Une GT540M dispose de 96 coeurs CUDA à 1 344 MHz associés à de la DDR3 128 bits à 900 MHz. La GT550M dispose aussi de 96 coeurs CUDA mais à 1 480 MHz et utilise la même mémoire que la GT540M. Un petit overclocking de la 540M devrait donc permettre de retrouver facilement les performances d’une 550M. Et comme vu plus haut, la GT555M est disponible en deux livrées. Une avec 144 coeurs CUDA à 1 180 MHz utilisant de la DDR3 192 bits à 900 MHz, et l’autre utilisant seulement 96 coeurs CUDA associés à de la GDDR5 128 bits à 1 569 MHz. En termes de performances, une GT540M donne en moyenne 4 000 points à 3DMark Vantage. Une GT555M

Un 24 pouces, oui… mais en 1 920 x 1 200 ! Dommage qu’avec l’évolution des moniteurs, des pixels se perdent en passant au Full HD avec l’adoption d’une résolution baissant de 1 920 x 1 200 à 1 920 x 1 080… Je dois changer d’écran mais pas question de prendre un 16:9. Quel écran (marque, modèle) me conseillez-vous pour un 24 pouces 16:10 ? De plus, est-ce qu’un moniteur LED est conseillé pour jouer aux jeux vidéo, ou bien est-il préférable de rester sur un écran LCD ? En effet, comme vous l’avez noté, la généralisation de la HD 16/9 s’est accompagné d’une sévère perte de pixels pour ceux qui avaient gouté au « 1200 lignes ». C’est vrai pour les dalles de grande taille, de 24 pouces et plus. Ces dernières sont, en effet, passées d’une définition de 1 920 x 1 200 à 1 920 x 1 080. 120 lignes de perdues, c’est conséquent car c’est le plus souvent à la verticale qu’on lit sur un PC, que cela soit dans


Word ou sur le net. Sur ce point, nous partageons entièrement votre avis et déplorons la perte de définition sur les modèles de grande taille. Le marketing du « Full HD » y a fait des ravages. Mais attention, la chose est vraie à partir de 24 pouces. En dessous, ce n’est plus du tout le cas, bien au contraire. Et le passage au « Full HD » aura été salutaire, avec des dalles de 22 pouces un peu étirées en largeur (au point d’en devenir des 23 pouces) et gagnant en définition ; de 1 680 x 1 050, on passe en 1 920 x 1 080… et là, le gain est confortable. Donc le choix n’est pas toujours simple entre un 23 et 24 pouces en 16:9. Et la raison ne plaide pas souvent en faveur du 24 pouces. Le même nombre de pixels sur une dalle plus petite confère au 23 pouces une impression de définition un peu plus dense.

Il est possible de trouver facilement des 24 pouces à dalle IPS d’excellente facture, pour moins de 500 €.

Le retour du 16:10 Par contre, depuis peu, certains constructeurs se remettent à produire des 24 pouces à l’ancienne. Du bon vieux 16:10 en 1 920 x 1 200. Ces derniers sont souvent un peu plus haut de gamme et intègrent des dalles de meilleure facture que les traditionnelles dalles TN que l’on trouve sur la majorité des moniteurs. La plus populaire en ce moment, c’est l’IPS, mais fortement améliorée par rapport aux dalles IPS d’il y a 15 ans. Leur qualité de reproduction colorimétrique en fait des écrans superbes pour les amateurs de belles images et de couleurs justes. Mais les temps de réponse ont été grandement améliorés. A l’origine, une dalle IPS avait un temps de réponse de l’ordre de 25 ms. Impensable de jouer avec une telle rémanence. Aujourd’hui, ces dalles sont passées à 6 ms, largement de quoi jouer ; certains moniteurs IPS faisant d’ailleurs aussi bien que les bonnes dalles TN 2 ms en termes de rémanence. C’est un peu le meilleur des deux mondes, bien que le prix de ces moniteurs soit toujours un peu supérieur à celui des dalles TN de même taille. Oh, rien que l’écart de performances ne saurait justifier. Vous trouverez sur le marché deux 24 pouces IPS aptes au jeu et excellemment calibrés d’usine pour 500 € à peu près : les Asus PA246Q et Dell U2410.

26 pouces TN accessibles Si 500 € sont trop pour votre budget, vous pourrez encore trouver quelques 24 pouces TN en 16:10, comme le Hyundai W234D (trouvable autour des 300 €). Pour conserver cette définition, vous pouvez également passer au 26 pouces en dalle TN, où vous trouverez un peu plus de choix comme avec l’Iiyama Prolite E2607WS, le LG W2600HP, tous deux trouvables aux alentours des 350 €. Tous ces moniteurs sont aptes au jeu. Notre préférence va, bien sûr, aux moniteurs en dalle IPS qui, plus chers, offrent une bien meilleure qualité d’image.

Plusieurs modèles 24 pouces 16:10 en dalle IPS sont aujourd’hui disponibles. LED ou non

Vous abordez enfin la question des LED. Un petit éclairage s’impose. Les LED des écrans LCD ou des TV sont la source lumineuse assurant le rétroéclairage de la dalle. Les LED remplacent progressivement les tubes CCFL utilisés par le passé. Plus économiques, les LED permettent des moniteurs plus fins, un éclairage plus homogène et

de meilleurs taux de contraste. Tout plaide en la faveur des LED. Il faut toutefois modérer cet avis car tous les écrans LCD PC utilisent un rétroéclairage par LED blanches situées sur le bord des dalles (LED Edge), qui est rarement de meilleure qualité que les rétroéclairages à tube traditionnels, contrairement à d’autres technologies LED comme le LED RGB ou le LED Local Dimming.

Bien positionner les sondes thermiques L’utilisation de ma configuration (Q6600 refroidi par un Megahalems, 8800GT refroidie par un Scythe Musashi, carte mère Gigabyte et 4 Go de RAM) est axée principalement sur le multimédia, la bureautique, la bidouille de mon OS et l’OVERCLOCKING. J’ai acquis récemment un rhéobus Scythe Kaze Master pour pouvoir augmenter ma ventilation facilement, lors de mes séances d’o/c et profiter du monitoring proposé par ce produit. Ce rhéobus comprenant des sondes de température. Dans la notice, ils préviennent que placer les sondes entre le rad et le CPU risque d’endommager les composants. Bien sûr, je ne pensais pas le faire, mais cette réflexion m’en a amené une autre. Où placer mes sondes pour avoir la température la plus juste possible ? Sur la base du radiateur me paraît la solution la plus adéquate, mais alors, quelle sera la véracité de la température affichée ? Quel décalage existera-t-il entre les températures affichées et celles du CPU et du GPU ? Si celles-ci sont peu fiables, où placer mes sondes pour avoir des températures intéressantes lors d’o/c. PS : une autre question pratique, avez-vous des conseils pratiques me permettant d’améliorer le WAF :) ? Ne serait-ce pas une idée d’article ? Dans la théorie, le placement des sondes est assez simple : il faut être au plus près du composant surveillé. Si vous monitorez un CPU, la logique veut que vous soyez entre la base du ventirad et le heatspreader du

CPU. C’est la logique et l’endroit où vous aurez les valeurs les plus précises. Mais c’est également, en général, impossible ; un bon refroidissement demandant un contact parfait entre ces deux surfaces.

PC Update 15


CAS pratiques pratique Des alternatives au Scythe existent, comme cet Aquaero 5 LT USB.

Donc, pour rester au plus près de la source de chaleur, il faudra ruser. Coup de bol, les IHS sont surélevés et il est facile de poser les sondes sur leur pourtour. Pour les fixer, une pâte thermique bien visqueuse ou collante sera parfaite. C’est de la sorte que vous aurez les renvois de température les plus fiables.

Fiabilité approximative Mais attention, vous êtes au plus près de la source, mais pas à la source. Et il y aura toujours une différence sensible entre les températures renvoyées par les sondes intégrées au composant (CPU ou GPU) et celles renvoyées par votre dispositif. L’important, dans l’histoire, sera de bien mesurer ce delta. Savoir si quand votre sonde affiche 70 °C, votre CPU est en fait à 75 °C, ou plutôt à 80 °C. Placées sur des modules mémoire ou sur un disque dur, ces sondes seront bien plus fiables, car positionnables directement sur le composant chauffant. Si vous voulez être vraiment fiable sur les relevés de température pendant vos overclockings, vous pouvez également utiliser un second moniteur : sur le principal, les benchs en plein écran et sur le secondaire, les utilitaires de mesure traditionnels (Core Temp, HWMonitor, CPU-Z, GPU-Z, etc.)

Alternatives Quoi qu’il en soit votre Scythe Kaze Master est un « plus ». Mais des concurrents assez intéressants existent. Au premier rang desquels, la solution Aquacomputer, l’Aquaero 5 LT USB Fan Controller. Il associe lui aussi sondes thermiques (au nombre de huit)

Il faut coller la sonde sur les bords de l’IHS pour rester le plus près de la source de chaleur.

16 PC Update

et régulateurs de ventilation (jusqu’à 10 canaux), mais permet des alarmes et des modulations des vitesses de rotation des ventilateurs en conséquence. Tout ceci étant paramétrable via le module 5,25 pouces monté dans une baie de façade du PC. Un peu plus chère (60 € - 119 € avec le module LCD sur une baie 5,25 pouces), la solution Aquacomputer est également plus complète. Moyennes pour monitorer efficacement un composant comme un CPU ou un GPU, faute de pouvoir être en contact direct avec la puce ellemême, ces solutions sont intéressantes pour surveiller divers points sensibles du PC : mémoire, disques durs, proximité des composants, revers de carte graphique, intérieur de l’alimentation, etc. afin d’ajuster la ventilation à la chaleur effectivement relevée.

Les alternatives existent, mais n’oubliez pas de bien surveiller les relevés des sondes internes au CPU et au GPU qui seront plus précis. Quant au WAF, c’est un problème auquel tous les geeks sous tutelle féminine sont malheureusement soumis. Les plus virulents d’entre nous n’ont cesse de conseiller le célibat à qui veut vivre pleinement sa passion. Mais si vraiment vous y tenez, il est possible de régler les problèmes par un concours de bras de fer, de cracher de noyau, ou de tenter de convertir madame aux bienfaits du PC. Avec une petite partie de Duke Nukem par exemple. A la réflexion, il est plus facile d’overclocker un i7 à 10 GHz que de convertir une compagne réticente. Nous avons beaucoup plus d’exemples malheureux de geeks castrés que de négociations gagnées. Un article n’est donc pas pour demain sauf si bien sur nous recevons des témoignages lecteurs ! Courage ! Le Scythe Kaze Master permet de surveiller jusqu’à quatre températures et autant de ventilateurs.

Il faut que la sonde soit positionnée au plus près de la source de chaleur à surveiller Configuration solide, mais carte graphique trop limite J’ai actuellement un Core i7-920 2,67 GHz, 6 Go de DDR3, une ATi 4870 1 024 Mo, 2 Western Digital Raptor de 300 Go (un pour Windows, l’autre pour les jeux) et 1 Samsung 1 To pour le stockage montés sur une Gigabyte EX58 Extreme, avec une alimentation Corsair TX 750 W, le tout dans un Cooler Master HAF 932. J’ai observé depuis quelque temps que mon PC donne des signes de faiblesse quand je lance les jeux récents demandant un peu de ressources système (ventilateurs tournant à plein régime, ralentissements, saccades, etc.). Sachant très bien que ma carte graphique est le maillon faible, je pensais la remplacer sous peu par une GTX 580, mais quitte à investir, pourquoi ne pas dépenser un peu plus dans un SSD, voire un nouvel ensemble carte mèreprocesseur Sandy Bridge-mémoire et une carte graphique un peu moins véloce mais qui donnerait un PC homogène plutôt qu’une carte graphique surpuissante sur un ensemble vieillissant ? Votre PC que vous qualifiez de vieillissant est encore une belle bête. La sortie des architectures Sandy Bridge lui a, certes, fait

prendre un petit coup de vieux, mais votre i7 reste une valeur sûre du CPU. Et comme vous le mentionnez, le maillon faible de votre


Une machine en i7-920 est toujours une base solide machine est clairement la carte graphique et le remplacement envisagé par une GTX 580 devrait grandement soulager la machine. Un petit exemple parlant : sous Crysis Warhead, la GTX 580 sera quasiment trois fois plus véloce que votre HD4870. Et si l’on prend simplement la génération suivante, la HD5870 est déjà deux fois plus puissante que votre HD4870. La différence est colossale et plus vous chargerez (en filtrages et en détails), plus la différence sera flagrante. Et il y a fort à parier que cette upgrade redonne une vraie seconde jeunesse à votre PC. Largement de quoi attendre une évolution de la plateforme Sandy Bridge actuelle.

SSD L’upgrade que vous envisagez pour un SSD est certainement la meilleure chose à faire dans l’immédiat, avec le changement de carte graphique. Vos Velociraptor sont rapides, mais un bon SSD les clouera sur place. En ces temps de renouvellement, les dernières générations sont alléchantes : Crucial C400, Vertex 3 (en SF2281) et Intel 510 sont au top en lecture et en écriture. Si vous montez vos deux Velociraptor en RAID 0, vous aurez des débits en lecture de près de 270 Mo/s, ce qui est déjà conséquent. Un Crucial M4 sera à 420 Mo/s, un Intel 510 à 360 Mo/s et un Vertex 3 à 500 Mo/s. Mais attention, ces performances sont prises sur un chipset P67… sur un X58, les ports SATA 6 Gbps gérés par une puce Marvell sont interfacés sur une seule ligne PCI-E, alors que sur P67, les ports SATA 6 Gbps gérés en natif par le chipset disposent d’une bande passante plus importante. Mais relativisons : le Marvell « bridé » ne bride que quelques SSD particulièrement véloces, dépassant les 500 Mo/s en lecture. C’est déjà colossal ! Tout ceci pour dire que sur votre carte mère, un SSD apportera son lot de performances en plus, ne serait-ce que grâce aux temps d’accès quasi inexistants. C’est déjà un gros plus, sans compter les excellentes vitesses de lecture et d’écriture. Mais sur un port SATA 6 Gbps d’un P67 ou d’un H67, ça marchera encore plus fort. Et en l’état actuel, vous pouvez parfaitement monter un SSD sur lequel vous installerez Windows 7, associer vos deux Raptor en une grappe RAID véloce et extraordinaire pour y installer applications et jeux, et enfin votre HDD sera parfait pour y stocker fichiers et archives.

Un bon OC en attendant Ivy Bridge ? En résumé, votre configuration « vieillissante » peut encore tenir un peu, quitte à la doper au SSD et à la GTX 580. Largement de quoi attendre Ivy Bridge, la suite de Sandy Bridge prévue pour la fin de cette année. Sans oublier que sur votre carte mère, votre Core i7-920 peut atteindre les 4 GHz sans trop de problèmes, pour peu que vous ayez de la bonne DDR3 (de préférence 1600 au

La Radeon HD4870 était une formidable carte au moment de son lancement, mais elle est maintenant largement dépassée.

lieu de la 1333). Les valeurs suivantes sont à atteindre progressivement et non d’un coup, et restent approximatives (tous les CPU n’étant pas égaux devant l’overclocking) : passez la PLL autour de 1,8 (plus ou moins 100 mV), le vCore à 1,2 ou 1,3 V, baissez les fréquences de l’uncore et montez le coefficient. Les BIOS récents peuvent monter jusqu’à 21, c’est appréciable.

Faire évoluer un PC de jeu branché sur une TV LCD Dans un souci de faire toujours évoluer ma machine et étant passionné depuis trop peu de temps pour savoir quoi faire, je m’adresse à vous pour que vous me disiez quelle serait l’upgrade la mieux adaptée à mon matériel : une tour M5641 équipée d’un processeur Q6600 (2,40 GHz) refroidi par le ventilateur d’origine ; 6 Go de RAM Corsair (2 x 2 et 2 x 1) une carte graphique ATi Radeon HD5770 (1 Go), SSD 40 Go et un HDD 1 To ; deux ventilateurs Enermax (de petite taille), un lecteur Blu-Ray et comme système d’exploitation Windows 7 version intégrale 64 bits. Le tout est branché sur un écran 117 cm Samsung en HDMI. Je ne sais pas quoi faire pour rendre mon PC meilleur bien qu’il fonctionne sans souci ; les jeux sont mon passe-temps principal (GTA4, Crysis, Burnout…) Ayant un budget maximum de 200 €, je souhaiterais savoir quel est l’élément à remplacer ou à ajouter, qui pourrait me faire gagner des performances ! Votre PC est, certes, un peu vieillissant, mais il est sorti d’affaire par l’écran que vous utilisez. Malgré une diagonale intéressante, votre écran Samsung est au mieux en Full HD (1 920 x 1 080), ce qui pour du hardware PC est une résolution facilement gérable. Rien à voir en termes de puissance nécessaire avec un jeu sur 30 pouces (2 560 x 1 600) ou en multimoniteur. Il est donc assez logique que dans l’ensemble, vous trouviez votre PC suffisant pour jouer, même sur un grand écran.

contre, troquer votre Radeon HD5770 pour une HD6850 (160 € dans le commerce) pourrait vous donner un surplus de fluidité non négligeable. En Full HD, le gain se situe autour de 15 à 20 FPS en moyenne. C’est toujours bon à prendre, d’autant que ce surcroît de FPS vous permettra de pousser un peu plus les détails des jeux, pour en obtenir un rendu plus généreux. La bonne affaire du moment étant les 5870, bradées, qui sont encore plus performantes que les cartes mentionnées plus haut.

Piste 1 : booster le graphique Avec votre budget maximal, il est impossible de changer le trio CPU-carte mère-DDR3. Il faudrait idéalement entre 300 et 400 € pour le faire. C’est donc en l’occurrence un peu trop cher et ça n’a que peu d’intérêt si en même temps, on ne change pas la carte graphique. Par contre, changer de carte graphique sans toucher au reste pourrait être bénéfique. Pour jouer en Full HD, inutile de taper dans des modèles haut de gamme (que de toute façon votre Q6600 risquerait de brider). Par

Jouer sur une TV, même en Full HD, est assez simple pour un hardware PC milieu de gamme PC Update 17


CAS pratiques

Grande taille d’écran, mais résolution assez modeste pour un PC… le jeu sur TV HD n’est guère problématique pour le PC d’aujourd’hui.

Piste 2 : overclocking L’autre chose à faire serait, bien évidemment, d’overclocker votre Q6600. Et pour le faire, la première étape sera de vous débarrasser de votre ventirad « stock » pour opter pour un modèle plus sérieux. Le meilleur choix du moment étant le Prolimatech Super Mega à près de 70 €. Mais en mettant presque 20 € de moins, vous trouverez un Megahalems Rev B déjà excellent, et qui vous permettra d’y aller de bon coeur sur l’overclocking de votre quad core. Pourquoi viser les 50 € ? Pour rester proche de l’enveloppe de 200 € que vous vous étiez fixée.

De sorte que même en changeant de carte graphique, vous pourriez également changer de ventirad pour overclocker votre CPU. Deux en un. Votre PC n’en irait que mieux. De 2,4 GHz en standard, il est possible de pousser la bête facilement à plus de 3 GHz, les plus gros scores en la matière se situant autour des 4 GHz. Mais nul besoin de viser aussi haut pour déjà bénéficier d’un bon coup de boost ! A condition toutefois que le BIOS de votre PC vous y autorise, ce qui n’est pas gagné. D’où l’intérêt de monter soi-même sa configuration en choisissant soigneusement ses composants…

Carte graphique pour un PC ancien Intéressant le dossier sur les cartes graphiques mais… je dispose d’un vieux PC de type Pentium 4 à 3 GHz et de 2 Go de RAM sous XP. Ma carte graphique est actuellement une GeForce 8400. Je pense réinstaller un nouveau disque dur dans ce PC et profiter de la réinstallation du système pour aussi changer de carte graphique. Je souhaite donc acheter une carte graphique n’ayant pas besoin d’une alimentation supplémentaire, mon écran est un Iiyama 2209 HDS. Mes jeux sont des jeux simples et l’usage principal Internet et bureautique. Je ne pense pas mettre plus de 100 € pour une carte graphique.

Le Pentium 4 a connu des cartes mères dotées d’un bus AGP et d’autres dotées d’un bus PCI-Express.

18 PC Update

Il est vrai que le PC qui nous intéresse ici est particulièrement ancien. Et le changement de carte graphique n’en fera pas un monstre de puissance par pure magie. Par contre, le fait de passer à une génération de GPU plus récente vous ferait profiter d’accélérations diverses : accélérations vidéo pour lire à peu près tous les formats vidéo HD actuels, sans solliciter un CPU ancien, et GPGPU qui vous aidera à réaliser bien plus vite quelques travaux un peu lourds comme de petits encodages. Mais la GeForce 8400 dont vous parlez a existé en bus AGP et en bus PCI-Express ; ce dernier simplifierait grandement l’upgrade. Si vous êtes en PCI-Express, votre matériel remonte

certainement à 2004, date de lancement des cartes mères en chipset Intel 915 et votre carte mère dispose certainement d’un PCI-Express 16x. Vous pourriez donc, en théorie, y faire fonctionner une carte graphique récente. Mais choisir un modèle trop puissant serait un non-sens que limiterait la puissance modeste de la machine. Une GeForce 9800GT serait une très belle upgrade pour votre machine. Ces GPU se trouvent dans le commerce entre 80 et 100 €. Ce sera bien plus puissant que votre 8400 actuelle et dans la limite de votre budget. La 9800GT est une carte qui nécessite une alimentation. Or vous précisez ne pas pouvoir alimenter la carte graphique. Certainement par manque de connecteurs d’alimentation PCI-Express 6 broches sur votre alimentation. Ce n’est pas un problème. Si vous disposez encore d’une prise Molex (4 broches 12 V) de libre sur l’un de vos brins, vous pourrez utiliser les adaptateurs Molex vers PCI-Express habituellement livrés dans les bundles des cartes graphiques alimentées. Dans le pire des cas, si votre boîte en est dépourvue, vous pouvez acheter cet adaptateur chez votre assembleur pour quelques euros. Vous pourriez également choisir une carte graphique d’occasion et trouver par exemple, une GTX 460 autour des 80 € et qui serait près de deux fois plus puissante que la 9800GT. Si vous voulez absolument rester sans alimentation annexe, une GT220 ou une GT240 sera parfaite et bien plus puissante que votre carte actuelle, et vendue entre 55 et 75 €.

Upgrade encore possible sur un PC de 2002-2003 Si vous avez eu un Pentium 4 à 3 GHz datant de 2003, qui voyait l’arrivée des FSB 800, de l’HyperThreading, et qui marchait sur un chipset i875P sur un socket 478, le choix est plus délicat, mais pas impossible. Cette configuration était une bête pour l’époque. Une antiquité en 2011. Ce qui rend les choses un peu plus complexes, c’est que l’i875P est le dernier chipset Intel équipé d’un bus AGP 8x. Les chipsets ultérieurs inauguraient le PCI-Express, bus que toutes les car tes actuelles continuent d’utiliser. Toutefois, il subsiste encore quelques modèles en magasins. Principalement des GeForce de séries 6 et 7 ou des Radeon HD 34xx, 36xx, 3850, voire des HD4650 qui sont les plus puissantes cartes AGP ATi disponibles aujourd’hui. Chez nVidia, le modèle le plus véloce sera une GeForce 7600GT. Le prix de ces deux cartes reste inférieur à 70 €. Elles suffiront pour des petits jeux simples, voire quelques vieux FPS de l’époque (comme l’excellent et gratuit Urban Terror basé sur le moteur de Quake III), mais ces configurations seront trop faibles pour des jeux récents.


"Asus signe avec la Rampage III Black Edition une carte mère exceptionnelle" Clubic.com 11/04/2011 "Cette Asus Rampage III Black Edition est actuellement la carte X58 ultime" 59hardware.net 11/04/2011 "Impressionnant n’est-ce pas ?" Syndrome-oc.net 11/04/2011

Carte mère ASUS ROG RAMPAGE III BLACK EDITION Socket LGA1366 pour processeur Intel® CoreTM i7 et CoreTM i7 Extreme Edition Intel X58 /

ICH10R; DIMM X6, 48Go max, DDR3 2200 (O.C.) Triple Canal, 4 X USB3.0 (deux en façade) Qualité audio exceptionnelle : Grâce à sa partie Xonar, Thunderbolt produit une qualité sonore exceptionnelle pour une meilleure immersion dans vos jeux vidéo. Réactivité hors du commun : équipée de la puce Bigfoot NetworksTM gardez la maîtrise lors de vos parties en ligne en vous assurant un ping à toutes épreuves.

Bluetooth v3.0 + HS - La nouvelle norme Bluetooth 3.0 + HS vous offre le Wi-Fi et un meilleur débit.

ROG Connect - Prenez le contrôle de votre processeur et de votre carte graphique à distance et en temps réel avec un PC portable ou un Smartphone.

ASUS, la marque de cartes mères la plus plus vendue et la plus récompensée


dossier : tablettes

Tablettes Android, Tablet PC L’avenir est-il tactile ? Nous en avons longtemps rêvé. On les présente même comme des tueuses de PC portables. Au-delà de l’effet de mode, voyons – enfin – ce que les fameuses tablettes tactiles ont dans le ventre. Dotées d’un vrai capital séduction, il est vrai, elles restent extrêmement limitées. Surtout si on les compare à la génération 2011 des Tablet PC qui, elle, a les vraies qualités pour remplacer un notebook !

En test

Asus Transformer vs EEE Slate

20 PC Update

Le bureau peut toujours être personnalisé à volonté avec de nombreux raccourcis et widgets, mais le raccourci vers le menu se retrouve en haut à droite.

Q

uand le concept des tablettes a débarqué, les réactions ont été plus que mitigées à la rédaction. D’un côté, l’enthousiasme du geek pour toute nouveauté technologique a provoqué quelques réflexes pavloviens chez certains d’entre nous. D’autres sont restés plus sceptiques devant ces téléphones agrandis, pénalisés par tant de lenteur et de rusticité. Car derrière le côté eye candy et novateur des interfaces tactiles, se cachent des OS à côté desquels Windows 3.1 fait figure de parangon de sophistication. Quoi qu’il en soit, les choix obtus d’Apple (pas de Flash, pas de lecteur de cartes, pas de port USB, aucune liberté de customisation de l’OS) et sa politique commerciale outrancière, tant sur iTunes que sur le dock propriétaire, nous ont tous dissuadés d’acheter un iPad. Mais voilà qu’arrivent enfin Android 3 et la cohorte de tablettes coréennes et taïwanaises qui nous font baver depuis des mois. Faut-il succomber pour ces engins si attractifs sur le papier ? Car si leur prix raisonnable rend la tentation facile, il ne faut pas oublier qu’à budget égal ou un peu supérieur, on peut avoir des notebooks fort sympathiques et même des Tablet PC dont la dernière génération est terriblement séduisante. Ringards, objecteront certains contempteurs du couple wintel ? Eh bien, vous allez constater avec nous qu’au bout de quelques heures d’utilisation, un habitué à la vitesse et au confort des PC n’est pas forcément de cet avis.

Le possible et le frustrant Les plus attentifs ont déjà compris que le gourou de Cupertino nous a bien fait rire quand il a présenté « l’après PC ». Même si les avis divergent à la rédac, nous ne voyons pas les tablettes faire autre chose que consulter des médias si possible pas trop lourds. Web, images, musique, c’est parfait. Vidéos ou PDF, un peu mais peut mieux faire. Sauf qu’un mobile n’est pas comme une TV un simple outil de consultation. Or, et on s’en aperçoit hélas trop vite, l’ergonomie d’une tablette est infecte dès qu’on sort de cette stricte consultation. Le monofenêtrage, l’absence de drag & drop et la difficulté à sélectionner du texte pour le copier sont absolument exaspérants, bien que les options copier/couper/coller soient présentes et désormais bien intégrées. Essayez de remplacer votre notebook par une tablette en usage quotidien et vous aimerez Windows comme jamais. Simple exemple de frustration sur une tablette. Vous voulez copier un film depuis votre NAS ou PC serveur en Wi-Fi. La chose la plus simple et naturelle du monde. Mais il vous faut d’abord trouver un logiciel de gestion de fichiers accédant au réseau. Ça ne court pas les rues et niveau ergonomie, c’est un peu en dessous de Norton Commander, version DOS 3.3. Puis patientez une bonne trentaine de minutes pour copier un malheureux giga (1 minute sur un PC modeste), car ça rame sans que l’on sache pourquoi du reste, le CPU étant occupé à peine à 20 % et le contrôle sur les rouages de la machine proche du néant. Et au final, respirez un


bon coup avant de vous apercevoir que ce pauvre MKV n’est reconnu par aucun des lecteurs vidéo installés. RockPlayer, MoboPlayer, mVideoPlayer, mieux vaut tous les avoir sous la main, sans pour autant être assuré du succès. On est bien loin de l’universalité des shark codecs. Vous êtes accro à MSN ou Facebook ? La saisie de texte est plus lente que sur un téléphone ! Le petit écran de ces derniers permet une saisie rapide avec un doigt. Le clavier d’une tablette, mollement étalé sur les 10’’ de l’écran, impose de furieux gestes de l’avant-bras et c’est plus lent au final ! Sans compter que si Android 2.X pour téléphones combine les lettres de l’alphabet avec les caractères spéciaux les plus usités (en appuyant quelques secondes), il faut désormais accéder à une autre page du clavier. Impossible de tenir une conversation MSN correctement écrite à ce rythme. Il existe des miniclaviers sur le market Android, mais allez trouver la bonne application parmi les milliers existantes, dont 85 % débiles et inutiles, mal classées, mal décrites, le plus souvent en anglais. Car Android 3 est compatible avec les applications 2 et de manière plutôt propre et efficace, quand elles sont bien faites. C’est une bonne nouvelle pour les quelques centaines qui servent à quelque chose. Notez que la tablette Asus Transformer, représentante du jour de la très vaste famille des tablettes Android, testée plus loin, se distingue avec un dock qui lui offre alors un vrai clavier et un pad, à la manière d’un Motorola Atrix. A défaut de compenser la pauvreté de l’OS, il rend au moins la mise à jour d’une page Facebook et un chat MSN à peu près possibles.

sert de support. L’autonomie est, en revanche, un redoutable argument. A tel point qu’on en oublie souvent de recharger une tablette… et que ça n’est pas très grave. Une dizaine d’heures d’utilisation, quelques jours en veille, de vrais chameaux.

L’application Youtube donnerait presque envie de perdre quelques heures si la lecture de vidéo HD en Flash n’était pas si fastidieuse.

Et les iPad ?

Si les limitations des tablettes rentrent dans les limites de vos besoins, se posera encore la question du choix entre Android 3 et iOS, et bientôt WebOS. Outre les monumentaux défauts évoqués plus haut, l’iPad a tout pour lui ou presque. Plus mature, plus stable, plus poli dans les moindres détails, enrichi de moult applications nettement plus sexy que celles pour Android, le fossé se creusant encore plus en francophone, iOS est bien rodé. Il n’en souffre pas moins de toutes les limitations propres à un micro-OS tactile. Multitâche laborieux, voire inexistant (ne pouvoir écouter Spotify en surfant, avouez que ça La tablette présente quand même deux avantages la fiche mal), monofenêtrage pénible, relative lende taille, le poids et l’autonomie. Si l’argument de teur par rapport à un notebook restent énervants la finesse sur lequel se battent les fabricants à pour un amateur de PC. En face, Android 3 paraît coups de demi-millimètre semble un peu dérisoire encore rugueux. Non exempts de bugs, certains depuis qu’on a passé le cap du centimètre, le aspects de son interface semblent mériter encore poids peut beaucoup jouer quand on lit à bout de quelques coups de lime. Ce qui ne l’empêche bras sur un rocking-chair par exemple. Nettement pas de donner un petit coup de vieux à iOS sur moins quand votre buste (forcément musclé et certains aspects et notamment la gestion de bronzé en geek qui se respecte) ou votre ventre l’espace. Un iPad fait vraiment figure de téléphone géant. Google, en distinguant l’interface pour téléphones et pour tablettes, fait un peu mieux. À noter également la résolution largement inférieure de l’iPad 1 ou 2 puisqu’il se contente de 1 024 x 768 en 4/3, là où toutes les tablettes Android ou presque exploitent du 1 280 x 800 en 16/9. Tout à fait volontairement du reste, puisque cette quantité moindre de pixels assoAlors que les vidéos 720p sont lues sans problème sur un smartphone, le Tegra 2 n’y parvient ciée au meilleur GPU pas encore, la faute à des codecs qui manquent de maturité.

La TouchPad tournera sous WebOS, l’OS de HP et Palm.

PC Update 21


Dossier : tablettes

pour smartphones du moment, le PowerVR SGX 543MP, en fait un vrai concurrent d’une PSP, hormis l’absence d’un pad (et ça n’est quand même pas rien pour les amateurs de vrais jeux). Cette moindre résolution est, en revanche, pénalisante pour le surf Internet, on ne peut pas tout avoir. Mais au final, et malgré une finesse de mannequin anorexique, l’iPad pèche par les choix abusifs d’Apple. Quelle autre raison que vous forcer à acheter des versions 64 Go et des périphériques certifiés hors de prix pour l’absence de carte mémoire ou de port USB ? Toutes les mauvaises raisons pour l’absence de Flash, certes non exempt de defaut mais bien utile aujourd’hui, mériteraient un article entier, on se contentera de dire que ça n’est pas fairplay, pour être polis.

Mieux au même prix côté PC

Le clavier Android 3.0 est similaire à celui d’Android 2.3, mais étalé sur 10’’ il devient moins pratique.

Acer a logé un AMD C-50 dans une tablette 10’’, la W500. Dommage que celle-ci pèse près d’1kg, sans compter son clavier détachable qui affiche 600g sur la balance.

22 PC Update

Dès lors, sauf à n’avoir aucun besoin d’un vrai PC portable et donc à vous contenter d’une tablette comme simple liseuse, vous avez tout intérêt à comparer ce que vous pouvez trouver au même prix. Un netbook en Atom coûte environ 300 €, embarque un processeur autrement plus puissant, Windows 7, une résolution de 1 024 x 600 dans le pire des cas, 1 366 x 768 pour les plus haut de gamme, une autonomie de 6 à 8 heures en utilisation classique et un poids de 1,11 à 1,3 kg. Pas d’écran tactile, certes, et c’est un peu plus lourd mais au moins, on peut tout faire. Le Samsung N220 est notre référence en la matière, même s’il partage avec tous ses congénères un écran TN minable (couleurs, angles de vision, contrastes) et le format 16:9, inadapté à la consultation de sites Web ou d’ebooks. En outre, il est impossible de lire des vidéos 1080p, ce que corrigent les netbooks AMD Fusion (à peine plus chers). A partir de 600 €, on trouve des laptops de 11 à 13’’ (comme l’Acer 3820T), équipés de CPU nettement plus costauds, d’un IGP qui se charge du décodage HD et ayant un poids tout juste supérieur. Capables de beaucoup plus et plus rapidement, le maniement au pad ou à la souris est effectivement moins sexy. Et pour un peu plus cher encore, 800 €, voici la nouvelle génération de Tablet PC dont nous testons la dernière itération, l’Eee Slate, un peu plus loin. Ni plus ni moins qu’un PC portable à écran tactile et clavier Bluetooth détachable. Vraiment autre chose qu’un téléphone de 10’’ ! On retrouve donc Windows 7 dont l’usage n’a vraiment pas été pensé pour le tactile, mais simplement optimisé pour le stylet. Cela peut paraître ringard en 2011 mais ce petit ustensile est parfois bien pratique.

Et ce, d’autant qu’il se range dans la coque. Globalement, on peut certes se contenter de son doigt mais il y a toujours un moment où ça coince. Boutons trop petits ou simplement pas présents obligent à de ridicules allers-retours entre le clavier virtuel et l’interface. A vrai dire, en dehors de quelques applications comme les liseuses de livres et magazines numériques, Media Center ou quelques ajouts très agréables dans Office, Windows 7 est si peu adapté au tactile que la tentation de brancher une souris survient au bout de 2 minutes d’utilisation. Le clavier virtuel n’est pas pratique, faute de pavé ou barre numérique. Beaucoup de logiciels ne passent au plein écran que via un menu et n’en sortent qu’avec la touche Echap, qu’Asus ou un autre serait bien inspiré d’ajouter sur sa tablette. S’y ajoutent des difficultés inhérentes à la complexité de Windows qui font que vous n’arriverez jamais à confier un PC à votre vieille tante, quand iOS ou Android se mettent à la portée des plus récalcitrants. Exemple ? Pour ajouter le clavier Bluetooth fourni par Asus avec son Slate (un bon modèle d’origine Microsoft au demeurant), vous devez donc aller dans Réseau et partage, puis dans la fenêtre des connexions réseau, afficher les périphériques réseau Bluetooth où aucun ne sera bien sûr détecté puisque le clavier n’en fait pas partie. Mais c’est bien là que vous trouverez le bouton Ajouter périphérique Bluetooth. Démonstration magistrale de la merveilleuse logique intuitive microsoftienne. Autre aberration, essayez donc après une extinction inopinée de valider les options de boot dans le mode récupération de Windows avec un écran tactile… Ou encore le logo de boot de Windows qui ne s’oriente pas dans le sens vertical. Un détail, certes, mais aussi tout un symbole du peu de cas que Microsoft a eu pour les tablettes. Le tableau serait-il donc tout noir pour les Tablet PC ? En fait, pas du tout. Première bonne surprise, le surf Internet, principale raison d’être des tablettes, est un vrai bonheur. C’est étonnamment IE9 qui nous a le plus bluffé. Non seulement son interface a été pensée pour un usage tactile au doigt mais en prime, son accélération matérielle rend plus fluide le pinch & zoom. Surfer dans son lit avec l’Eee Slate et IE9 fait vraiment vite oublier iOS ou Android 3 ! Encore plus drôle, Microsoft semble avoir plus pensé au tactile que Google pour ses applications phares. Bing Maps, par exemple, outre le fait qu’il présente souvent de meilleures cartes que son homologue Google, accepte le pinch & zoom sur la carte, là où il faut employer un bouton – trop petit – pour zoomer chez Google. Certes, Android est fourni avec une application Maps dédiée qui gomme ce défaut. Si Chrome PC déçoit en tactile, n’oublions pas non plus la capacité de réaction impressionnante de Google, qui peut corriger le tir rapidement s’il veut respecter son leitmotiv entrepreneurial : « Don’t be evil ». Quant à Firefox, tactile, connaît pas hormis quelques addons comme Grab and Drag… A noter l’intéressante initiative d’Opera qui pro-


La tablette Iconia A500 d’Acer est équipée d’un écran TN beaucoup moins plaisant que les IPS que l’on attend traditionnellement sur les tablettes.

pose une beta de son navigateur pour Mobiles ultra fluide et parfaitement adapté au tactile pour Windows 7. Encore balbutiant mais à surveiller ! La vitesse d’exécution, sans commune mesure, et la richesse des logiciels même s’ils ne sont pas adaptés au tactile font malgré tout d’un Tablet PC un plaisir au quotidien. Ceux qui auraient la tentation de remplacer un PC portable par une tablette feraient bien de comparer. Celle-ci ne prendra l’avantage qu’aux toilettes, grâce à sa légèreté. Encore que, notez-le bien, votre magazine préféré, avec son 1 million pour 1 de contraste, son autonomie de 20a, son poids de 320 g, son papier écologique qui participe à la reforestation et son généreux format A4, n’a pas dit son dernier mot pour occuper ce moment vital de votre quotidien ;) Et au final, une fois, le Tablet PC relié à son clavier et à sa souris, il redevient un portable comme les autres. Le meilleur des deux mondes en quelque sorte. Enfin, dernière catégorie que nous ne manquerons pas d’essayer dès leur sortie prochain, les netbooks tactiles. Plus puissants que leurs pendants Android, tournant sous Windows et avec une autonomie que l’on espère digne de ce nom, ils embarquent des processeurs Intel Atom ou Fusion d’AMD, ces derniers étant à privilégier pour leurs capacités vidéo. L’Iconia W500 d’Acer et le WindPad 110 W chez MSI embarquent donc tous deux un Ontario C-50 (dual core 1 GHz équivalant aux Atom), un écran tactile de 10,1’’, 2 Go de RAM et un SSD de 32 Go. La tablette MSI accuse 800 g, c’est relativement peu sachant que les tablettes Tegra 2 tournent entre 600 et 700 g. L’Acer monte à près de 1 kg, auquel se rajoute en option un dock avec un clavier de 600 g. Lourd pour un netbook ! On devrait la trouver autour de 600 €, mais l’écran semble être un simple TN.

Tous les écrans ne se valent pas Si les dalles IPS qu’utilisent Apple, Asus, Motorola et LG ont un excellent rendu des couleurs, de bons angles de vision, et qu’on leur pardonne leur rémanence exécrable comparée à ce qui se fait sur PC (20 à 30 ms, au lieu de 5 à 8 ms), il n’en est pas de même pour les dalles TN embarquées sur l’A500 d’Acer et sûrement sur bien d’autres tablettes à venir. Couleurs triturées et angles de vision proches de zéro transforment le visionnage de photos entre amis

en un véritable calvaire. Samsung utilise, pour sa part, une technologie particulière et pour l’instant inédite. Les dalles PLS semblent même supérieures aux dalles IPS : meilleurs angles de vision, meilleure luminosité, moins chères à produire, mais elles ne sont fabriquées au mieux qu’en 1280 x 800, ce qui explique qu’on n’en trouve pas sur les écrans PC. Les dalles AMOLED, inexistantes dans de telles surfaces, sont pourtant celles que nous attendons le plus. Le seul reproche qu’on puisse leur faire porte sur la difficulté à discerner ce qui est affiché quand la luminosité ambiante est trop importante, en extérieur par exemple. Pas de tablette dans votre hamac cet été, mais si vous êtes un vrai amateur de PC, ce n’est pas bien grave, le soleil, c’est nocif. Les tailles des tablettes varient entre 7 et 12’’, tout comme les résolutions. Les tablettes 7’’, comme la Galaxy Tab de Samsung, le Streak de Dell ou le Flyer chez HTC, atteignent 1 024 x 600. C’est suffisant pour cette taille, mais beaucoup moins confortable que le 1 280 x 800 de la majorité des tablettes 10’’. Les iPad se situent à mi-chemin, plus proches des premières que des secondes, avec leur résolution de 1 024 x 768 pixels. On notera quelques hybrides comme la tablette LG 8,9’’ en 1 280 x 768 IPS. Après tout, elle ne perd que 32 pixels en hauteur et ça ne gênera même pas pour les vidéos 720p. Avec une tablette Android, nous préférons le pitch le plus élevé (c’est-à-dire la résolution maximale pour une surface donnée), l’interface étant pensée pour le tactile. En revanche, avec des tablettes Windows, une définition trop grande pour la surface de la dalle compliquera l’aspect tactile, obligeant souvent à sortir le stylet.

Les Samsung PC7 et Asus Slider proposent tous deux un vrai clavier physique coulissant sous une tablette 10’’, le tout propulsé par un Atom Z670.


Dossier : tablettes

Les perfs des tablettes en chiffres

En plus de l’avis du vieil ours qui nous gouverne tous et qui a exceptionnellement ressorti sa vieille plume rouillée pour rédiger cet article, les membres de l’équipe ont tenu à partager leur sentiment sur les tablettes. Leurs lacunes, leurs atouts, mais surtout la façon dont ils vivent cette nouvelle forme de produits.

Jérémy, 34 ans, père de famille (RIP) Bien qu’attiré par ces produits à l’esthétique accrocheuse, je n’ai pas remplacé mon netbook par une tablette. Même pour la consultation. La navigation Internet sur les pages Web les plus lourdes est un peu laborieuse, sans parler de taper un long texte dans un e-mail par exemple. La lecture de vidéos est un autre domaine qui me fait hésiter. Tenir l’appareil dans les mains qui finissent par transpirer peut aussi être lourd à porter à la longue. Assis sur un canapé ou allongé dans le lit, c’est tout de même moins confortable qu’un portable calé sur les genoux et sur le ventre, où les mains restent libres. Je finirai certainement par investir dans une tablette, car force est de constater qu’elles offrent une ergonomie et une convivialité très appréciables, surtout pour madame et les enfants, mais uniquement en complément de mon portable.

24 PC Update

Les SoC ou Systems on a Chip ont le vent en poupe avec les tablettes, facilitant l’intégration. Le plus connu de tous est sans doute le Tegra 2, qui a été choisi comme plateforme de référence par Google pour Android 3.0 et les tablettes. Il s’agit donc d’un ARM Cortex A9 dual core cadencé à 1 GHz et secondé par un GPU nVidia. Cadencé à 333 MHz dans les T20 actuels, une version T25 dite « 3D » verra le jour et sera poussée à 400 MHz. Cette partie graphique est l’atout du Tegra 2, très largement supérieure à celle que l’on trouvait jusqu’alors dans les GPU des smartphones, même haut de gamme ; les performances sont doublées (voire triplées dans certains scénarios) grâce aux 8 unités de la GeForce ULV. Toutefois, la résolution d’un smartphone atteint au mieux 480 x 800 pixels, soit à peine 0,38 Mpx. En comparaison, une tablette digne de ce nom affiche 1 280 pixels de large et 800 de haut, c’est-à-dire un peu plus d’un million de pixels et donc requiert une puissance 3 fois supérieure. Inutile d’espérer des performances décuplées, tout au plus seront-elles en légère hausse. A contrario, les smartphones Tegra 2 seront ultraperformants en 3D, s’ils trouvent des jeux les exploitant. A ce niveau, l’iPad 2 met tout le monde d’accord. D’une part grâce à une résolution intermédiaire de 0,78 Mpx, nécessitant donc 20 à 25 % de puissance en moins pour les mêmes résultats. D’autre part, la partie graphique (un PowerVR SGX543MP2) est encore largement supérieure à celle du Tegra 2, on parle ici de performances 2 à 4 fois supérieures selon les situations. On peut alors jouer à Quake 3 de façon parfaitement fluide… prouesse que la GeForce 256 de 1999 était déjà capable d’accomplir. Tout ceci n’a d’importance que si l’on conçoit la tablette comme console, le Tegra 2 étant capable de décoder les vidéos 1080p, du moins le jour où les logiciels sauront utiliser sa puissance, et d’afficher Angry Birds Rio, ça sera suffisant pour nous combler. Côté CPU, c’est un peu plus délicat de trancher vu le grand nombre de versions et de protagonistes. Chez Qualcomm, après la première génération de Snapdragon qui a fait fureur dans les smartphones début 2010, la seconde génération que l’on trouve dans les HTC et Sony Ericsson se montre 15 % plus rapide, alors que la fréquence n’a pas bougé (1 GHz), grâce à quelques ajouts et modifications du cache. Féroce concurrent, l’Hummingbird de Samsung utilisé dans le Nexus S et Galaxy S est un Cortex A8 basé sur le même jeu d’instructions ARM v7 que les Snapdragon et se montre à peu près aussi rapide que ces derniers, à génération équivalente, tout comme l’A4 d’Apple (toutefois un peu en retrait). Tout ce petit

monde tient dans un mouchoir de poche. Le Tegra 2 est environ 10 à 25 % plus rapide encore, si on ne considère qu’un seul des deux cores ! Et l’A5 d’Apple (utilisé dans l’iPad 2) tient tout le monde en respect, puisqu’il surpasse encore le Tegra 2 d’une très courte tête. Tegra 2 et A5 sont, en prime, dual core, ce qui signifie que leur puissance est virtuellement doublée. D’autres dual core sont prévus, notamment chez Qualcomm (Asus MeMo et HTC Sensation) et Samsung avec l’Exynos du Galaxy S II. Toutefois, la question de l’optimisation reste entière. Si rajouter des cores permet de virtuellement gonfler les chiffres, en annonçant une puissance de calcul théorique enormissime, tant que les applications n’arriveront pas à solliciter le 2e core, c’est peine perdue. Et c’est notamment la raison pour laquelle les tablettes rament un peu. Essayez d’installer un fond d’écran animé gourmand (mais magnifique) qui monopolisera un des deux cores et dites adieu à toute impression de fluidité. Pourtant, c’est tout l’intérêt d’un dual core : pouvoir cumuler deux applications en même temps. A l’usage, la puissance perçue n’évolue donc que très peu par rapport à un smartphone moderne. Nous attendons de pied ferme les quad core ARM annoncés pour 2012 qui, s’ils auront effectivement le même problème, forceront le développement d’applications multithreadées, une problématique qui a fait son apparition en 2006 dans le monde PC et qui est désormais presque réglée. Et dans ce monde PC justement, même le petit Atom N270 fait rarement moins que 2 fois mieux, souvent bien plus, selon l’optimisation des logiciels sur l’un ou l’autre OS. Une comparaison directe avec un ARM est impossible, faute de logiciels communs aux deux plateformes, Windows 8 constituera une sorte de révélateur en la matière. Oui, mais il consomme plus et n’est qu’un CPU, il faut rajouter un chipset et des contrôleurs pour le Wi-Fi ou le Bluetooth. En outre, la partie graphique associée est, pour ainsi dire, inexistante, il est à peine possible de regarder des vidéos 720p. Les AMD Fusion s’en sortent un peu mieux pour l’affichage de vidéos HD, sans vraiment faire évoluer la partie CPU. Les ULV, comme le Core i5 470 UM, sont au bas mot 4 fois plus rapides que l’Atom, mais consomment encore plus. Cette différence se sent, la fluidité est constante. Cumuler plusieurs applications incluant Photoshop n’est plus un problème. L’IGP intégré permet de jouer à quelques titres, mais la 3D des jeux PC est si complexe comparée aux jeux pour tablettes, qu’il est impossible de comparer les performances. Les jeux PC renvoient les jeux des tablettes au rang de jouets à sortir entre deux


arrêts de bus. Pour un Angry Birds ultraattractif, combien de jeux dignes d’un Commodore 64 ? En revanche, la consommation des puces Intel, bien qu’en considérable baisse, reste énorme comparée aux SoC ARM. Le TDP du CPU du Slate est de 18 W, sans compter le chipset et les périphériques, alors que les SoC opèrent entre 0,2 et 0,8 W… un gouffre qu’Intel espère combler avec les Oak Trail, les nouveaux Atom qui ciblent les tablettes et se retrouveront notamment dans l’Asus Slider et le Samsung PC 7. Tous ces résultats doivent cependant être pondérés par les OS et la difficulté de comparer la puissance du hardware sur tant de plateformes différentes. Windows consomme plus de ressources, et grève donc légèrement les performances des CPU, alors que les applications sont plus ou moins bien optimisées pour Android ou iOS.

Conclusion Les tablettes ne sont pas les remplaçantes des ordinateurs, elles n’en sont même pas des alternatives, juste de pâles ersatz bridés par leur puissance et leur OS ultralimité. On attend avec curiosité l’arrivée de Windows 8 pour ARM, au moment où les processeurs idoines seront dotés de performances bien plus intéressantes qu’aujourd’hui. A ce moment là, elles devraient devenir vraiment intéressantes. Pour l’instant, elles semblent s’adresser avant tout aux réfractaires à l’informatique. Pas étonnant que ça soit la clientèle Apple qui ait été touchée en premier donc ;) Mais pour qui a les moyens d’en acheter une en plus de son PC et d’un notebook, c’est un complément intéressant, pour tous les moments ou clavier et puissance sont superflus.

Les tests Asus Transformer

Tout juste disponible à l’heure où vous lirez ces lignes, le Transformer utilise un Tegra 2 et Android 3.0, comme la myriade de produits annoncés ces derniers mois. La surcouche logicielle a été négligée, sans doute volontairement puisque HoneyComb est bien plus flatteur que Froyo (2.2) et même GingerBread (2.3). La spécialité d’Asus portant plus sur le hardware que le software, c’est un choix sensé d’autant qu’à part Sense, la plupart des surcouches sont pénibles (qui a dit Blur ?). Toutefois, quelques modifications ont été apportées, permettant notamment de brancher une clé ou un disque dur en USB. Sur les autres tablettes, cette fonction USB host n’est pas assurée, sauf bidouille logicielle. En outre, un explorateur de fichiers, obligeamment rajouté par Asus, se révèle extrêmement pratique pour copier des données d’une clé ou d’une carte mémoire sur la tablette. La résolution de l’écran, sa taille, le SoC et l’OS étant identiques, Asus essaye de se démarquer en proposant en option un clavier/dock. Cet ensemble s’avère très utile pour saisir du texte rapidement, comme quoi, rien ne vaut le bon vieux clavier physique. Asus a même eu la bonne idée d’intégrer des raccourcis spécifiques à Android, comme l’activation du Bluetooth, la gestion de la luminosité de l’écran ou du son, ou encore pour la lecture audio ou vidéo. Le maniement de la souris est plus aléatoire, Android n’étant pas du tout étudié pour cet usage. Il est souvent plus rapide d’appuyer sur l’écran, qui conserve son aspect tactile.

Une fois installé sur le dock, le Transformer ressemble à un petit netbook.

A priori, il n’est pas indispensable pour un usage de liseuse. Sauf que c’est lui qui abrite les deux ports USB. Il est certes connectable à chaud mais pourquoi devoir trimballer un clavier pour y brancher une clé USB ? Quel regret que la tablette n’en dispose pas en standard. Enfin, il intègre une seconde batterie qui permet de porter l’autonomie de l’ensemble à 16 heures. L’écran n’est pas le meilleur qui soit en termes de réactivité (tant d’affichage que tactile). Il suffit d’effleurer l’écran, mais pas de façon ultrarapide, sans quoi la dalle n’enregistre rien. Il s’agit d’un coup de main à prendre et on se fait plutôt bien à cette utilisation calme et posée. En revanche, la rémanence est présente, que ce soit lors du déplacement

Thomas, 30 ans, célibataire et geek endurci Je ne peux pas me coucher sans passer une ou deux heures à lire les actualités et suivre mes séries/mangas. Entre le vrai PC (la tour, l’écran, le clavier, la souris et tout le bazar de fils en tête de lit, c’est très WAF compatible, mon chat vous le promet), le gros portable 17» qui n’a qu’une heure et demie d’autonomie, le petit CULV 11» et même le netbook 10» anémique : j’ai à peu près tout essayé dans mon lit… sauf les fameuses tablettes ! En main, 10» semble une taille idéale bien que ça soit un peu lourd à la longue. Android 3.0, c’est tout bonnement magnifique. Un peu jeune encore, c’est déjà très performant et bien plus agréable à utiliser que sur un smartphone, où les doigts boudinés s’emmêlent. Hélas, tout ne fonctionne pas comme sur un bon vrai PC. Si j’ai pu télécharger mes derniers mangas en Torrent à même la tablette, la lecture n’était pas encore fluide en 720p, faute d’un soft qui exploite les performances de Tegra 2. De même, les vidéos Flash ne sont pas superfluides… il ne s’agit que d’un supertéléphone ! En bref, je préfère nettement une tablette à un netbook, mais j’hésite à changer par rapport à mon ultraportable 11». La solution parfaite n’existe probablement pas, aucune ne cumulant l’universalité de Windows, la puissance du PC, l’esthétisme et la praticité d’Android et l’autonomie d’une tablette. Si mes finances ne répondaient pas pour moi, le geek craquerait, alors que la raison et le fait de déjà posséder un ultraportable 11» m’en dissuaderaient.

Benjamin, 22 ans, fashion victim La tablette, c’est un smartphone géant. Rien de plus à espérer. Navigation aisée grâce à une dalle plus large et applications qui profitent de l’espace supplémentaire, c’est tout ce que j’en attendais. La seule nouveauté concerne éventuellement les vidéos que je n’envisageais même pas sur un 4,3’’. En revanche, le reste ne change pas : Gmail, Chrome, musique, les photos fétiches et de quoi garder contact avec le monde extérieur, pendant les salons à l’autre bout du monde : MSN, Facebook, Android 3.0 y arrive à merveille. Toutefois, l’absence d’accès réseau pour aller piocher mes données sur mon serveur me rebute. Je ne peux pas me résoudre à devoir allumer mon PC pour y copier des fichiers sur une microSD alors même que mon serveur est la seule machine allumée 24/7. Il n’est pas exclu que je craque sous peu, mais presque à reculons. Pour les grosses sessions photo, rien ne vaudra mon laptop et Photoshop, même si j’aimerais bien m’en affranchir.

PC Update 25


Dossier : tablettes

La station d’acceuil du transformer regroupe une batterie, 2 ports USB, un clavier, un mousepad et même un lecteur de cartes SD/MMC.

d’icônes ou du défilement des pages. La relative lenteur du hardware, pas spécifique au Transformer ceci dit, n’aide en rien puisque scroller sur une page un peu chargée provoque des saccades.

La station d’acceuil du transformer regroupe une batterie, 2 ports USB, un clavier, un mousepad et même un lecteur de cartes SD/MMC.

Les ports USB sont protégés derrière un cache. Esthétique mais peu pratique, il gêne souvent le branchement d’une clé ou d’un câble USB.

Asus Transformer

• Processeur : Tegra 2 T20 • ROM : 16 à 32 Go (64 Go ?) • RAM : 1 024 Mo • Affichage : IPS capacitif, 10,1’’ 1 280 x 800 • Poids : 680 g • Connectique : audio, miniHDMI, lecteur de cartes microSD • Prix : à partir de 400 €

26 PC Update

Recharger le Transformer est pénible. Alors que l’on pourrait s’attendre à une prise USB, miniUSB ou microUSB, comme c’est le cas sur les smartphones, Asus a opté pour un connecteur propriétaire. Il relie aussi la tablette à son dock, ce qui explique en partie un tel choix, bien que nous aurions préféré deux prises, dont une aurait permis de recharger l’appareil avec un câble standard. L’USB est, par défaut, limité à 500 mA et même si certains peuvent transmettre jusqu’à 1,5 A, c’est peut-être trop peu pour le Transformer qui requiert 2 A ! Du coup, il est même impossible de recharger la tablette autrement qu’avec le transformateur livré, le câble bus propriétaire vers USB ne servant qu’à la relier au PC. Pour couronner le tout, il ne mesure que 60 cm, c’est vraiment trop peu, même pour surfer dans son lit en rechargeant ! La batterie 2 cellules de 3 300 mAh permet de tenir facilement une douzaine d’heures en utilisation continue (Wi-Fi et surf Internet). C’est plutôt satisfaisant, mais la tablette samsung embarquera une batterie deux fois plus puissante. A vrai dire, une tablette s’utilise comme un smartphone. Après utilisation, on la verrouille sans l’éteindre, ce qui lui permet de tenir un peu plus d’une journée, mais il faudra la recharger le soir, pour ne pas tomber en panne le lendemain. A part ça, dur de trouver d’autres défauts à cette tablette. Tous les autres reproches incombent plus à l’OS et se retrouveront chez tous les concurrents. Bien malin celui qui intégrera des boutons « Précédent » et « Suivant » sur les bords de la tablette ou une petite interface tactile qui tombe sous le pouce, afin d’éviter d’aller appuyer sur l’icône en bas à gauche. Disponible en version 16 Go à 400 €, le prix monte de 100 € en version 32 Go et le dock est vendu séparément à 100 €. D’ici juin, devrait débarquer une version 3G, car son absence se fait cruellement sentir à l’extérieur, heureusement que les possesseurs de smartphones Android 3G peuvent partager leur connexion en Wi-Fi avec leur tablette. Nous ne voyons guère l’intérêt d’une version 32 Go, sauf à utiliser des applications très volumineuses, comme une

visionneuse numérique de magazines. L’OS est tellement peu volumineux et les applications globalement légères que 16 Go suffiront, secondés pour le stockage par une carte microSD classe 10 (80 € les 16 Go). Ce n’est certes pas ultrarapide, mais le visionnage de photos même lourdes ne pose pas de problème. Hormis ces quelques défauts, le Transformer s’en sort plutôt bien. Le manque cruel de concurrence se fait sentir, puisque seule l’Acer Iconia A500 est disponible et uniquement en version 32 Go à partir de 500 €. L’idéal serait d’attendre un petit peu afin de trouver une tablette avec un port USB host intégré. Sur le papier, la Samsung Galaxy Tab 10.1 a notre préférence. A valider dans un test !

Asus EEE Slate Le concept de Tablet PC n’est pas nouveau, mais Asus l’a remis au goût du jour avec le Slate. Un ordinateur portable tactile avec clavier sans fil, voilà comment le résumer. Ses entrailles sont donc similaires à celles d’un ordinateur portable et on retrouve deux turbines pour rafraîchir un intérieur touffu. Au repos, c’est très silencieux, même s’il y a un souffle que les tablettes ne connaissent pas. Et pour les rares fois où le processeur sera fortement sollicité, cela reste aussi discret que le plus silencieux des laptops. L’autonomie est, en revanche, un peu moins satisfaisante. Certes, ce genre de produits s’adressant à qui veut remplacer son portable, 4 heures, c’est relativement correct. Mais par rapport à une tablette qui tient plutôt 10 heures, c’est bien peu, surtout quand les meilleurs ordinateurs équipés de la même puissance de calcul tiennent plutôt 7 heures. Le Core i7 470UM n’est pas responsable, mais 1,12 kg, c’est relativement léger, la principale victime étant la batterie. De 7 000 mAh, on passe à 4900 mAh, pas de quoi s’étonner. La mémoire et le stockage étant facilement accessibles, il est tout à fait possible d’upgrader le Slate. La coque, simplement clipsée, se démonte en un tour de main, sans risque de casser quoi que ce soit. Attention simplement à ne pas arracher les deux capteurs thermiques qui y sont reliés. Le seul slot de SODIMM supporte jusqu’à 4 Go de DDR3. Nuançons toutefois puisque lors de nos tests, les 2 Go de mémoire n’ont jamais posé problème, la tablette étant par définition dédiée à des tâches pas trop gourmandes, même si celle-ci peut à l’occasion vous servir à retoucher des photos.

Mini HDMI, sortie audio mini jack et un lecteur de microSD, point d’USB sur le Transformer.


Le SSD Sandisk au format mSATA est lui aussi accessible. Les plus aventureux pourront donc le remplacer par un Intel 310. Bien plus performant et fort de ses 80 Go, il représente une upgrade idéale pour une version 32 Go. Surtout lorsque le SSD d’origine affiche 160 IOPS en écriture aléatoire, là où l’Intel en affiche plus de 7 000 ! Et à l’usage, ça se sent. Lancer une seule application ne pose certes aucun problème, tout comme passer de l’une à l’autre, c’est même plutôt rapide. Mais tentez d’ouvrir IE9, un explorateur et un player à la fois (bien peu de chose finalement) et le ralentissement devient perceptible. Bien que lent, ce SSD s’avère toutefois correct, puisque le Slate démarre en 39 s, là où même une tablette Android 3.0 requiert 30 s. Plus problématique est l’espace disponible. Même en utilisant les astuces habituelles, désactivation de la veille prolongée, suppression des fichiers du SP1, un petit coup de CCleaner, vous aurez bien du mal à dépasser les 10 Go d’espace libre (quand une tablette offre 32 Go de libres sur 32, son minuscule OS est logé dans une ROM

à part). Asus n’a vraiment pas aidé en choisissant une version 64 bits de Home Premium, pesant 7 Go de plus que son équivalent 32 bits, sans apporter le moindre avantage sur une tablette. La version 64 Go fait grimper le prix de 100 €. Outre les 4 go de RAM pas forcément utiles mais toujours bons à prendre, nous ne pouvons que la conseiller à qui veut faire plus que du surf et un peu d’Office, ou éviter de connecter une clé USB. Côté software, Asus se contente de proposer Art Rage, soft de dessin tactile semblant excellent (on a pas de dessinateur à la rédac pour juger ;) ), et quelques menus utilitaires. IE9 n’est même pas installé en série, alors qu’il se prête bien mieux au tactile qu’IE8, sans parler de performances, sans commune mesure. Au final, le Slate est un petit bijou, à considérer non seulement en face des tablettes Android mais aussi en face de bien des PC portables traditionnels. On rêve de ce qu’il pourrait offrir avec un Windows plus adapté au tactile.

Le slot de DDR3 So-DIMM supporte jusqu’à 4 Go, pratique pour les possesseurs de version 2 Go qui souhaitent upgrader.

Le SSD Sandisk au format mSATA est assez lent, le changer par un Intel SSD 310 Series ne sera pas une mauvaise chose.

Icebear et Benjamin Bouix Assez fragiles, les boutons pour allumer la tablette, afficher le clavier et verrouiller la rotation automatique sont rassemblés dans le coin supérieur gauche.

2 USB, mini HDMI, lecteur de cartes SD, sortie audio mini jack, rien ne manque sur le Slate.

Asus Slate

A l’intérieur, le Slate est un laptop tout ce qu’il y a de plus classique.

• Processeur : Core i5 470 UM (1,33 GHz, 2 cores, 4 threads) • Mémoire : 2 ou 4 Go DDR3 • SSD : Sandisk P4 32 ou 64 Go • Affichage : Wacom IPS capacitif, 12,1’’ 1 280 x 800 • Connectique : 2 x USB, audio, miniHDMI, lecteur de cartes SD/MMC • Poids : 1,12 kg • Prix : à partir de 800 €

PC Update 27


dossier : questions micro

Les questions essentielles de la micro

28 PC Update


La micro, le hardware PC sont peuplés d’interrogations et de doutes, particulièrement pendant les phases d’achat, mais aussi à la moindre panne ou bug. Et entre ces deux moments fatidiques, interviennent 1 000 autres raisons de se poser des questions sur un point technique, qu’il soit théorique ou très pragmatique. Ce dossier réunit les plus essentielles, celles qui vous rendront forcément service tôt ou tard. Et en bonus, un quiz, pour savoir où vous en êtes !

C

omment déterminer si le CPU bride les jeux ? La mémoire rapide a-t-elle de l’intérêt ? Pourquoi l’AHCI est-il si important ? Le savoir, pour la microinformatique, comme pour le reste, est une quête sans fin. Même passionné, même lecteur assidu de PC Update, il y a toujours des choses à découvrir sur le hardware PC. Que cela soit pour éviter les erreurs, les arnaques, les mauvais choix, ou par simple culture générale, ce dossier de 88 questions vous donnera les cartes pour savoir l’essentiel.

Thomas Olivaux et Benjamin Bouix

Les très nombreux e-mails que nous recevons, auxquels nous avons bien du mal à répondre, faute de temps, nous sont extrêmement précieux quand il s’agit de déterminer les interrogations qui reviennent de manière récurrente. Mais aussi notre forum, lien direct avec vous, ô lecteur. Autrement dit, les 88 questions de cet article sont avant tout les vôtres. Achat,

CPU, silence et refroidissement, overclocking, cartes mères, RAM, GPU, stockage, réseau, il y en a pour tous les goûts et pour tous les niveaux de compétences ! Connaissez-vous le moment idéal pour upgrader votre PC ? Est-il plus judicieux de commencer par le CPU ou le GPU ? Et pourquoi pas un SSD ? Plus technique, savez-vous exactement ce qu’est la mémoire cache d’un CPU ? Ce qu’est l’Advanced Format 4k ? Ce dossier est également l’occasion de répondre, en détail, à des phrases toutes faites que tout le monde a entendues, sans vraiment savoir expliquer pourquoi. Par exemple, pourquoi un disque dur est-il plus rapide lorsqu’il est peu rempli ? Pourquoi les performances d’un SSD se dégradent-elles avec le temps ? 36 pages, 160 000 signes, 84 questions… de quoi devenir un dieu du hardware ! Ça y est ? Vous pensez tout savoir ? Répondez alors au quiz en fin de dossier. Une batterie de questions courtes pour savoir où vous en êtes !

PC Update 29


dossier : questions micro

Consumérisme et assemblage

Malgré de sérieuses baisses de prix, les PC de marque sont plus chers que les PC assemblés. Question

En 2011, un PC assemblé est-il plus ou moins cher qu’un PC de marque ?

01

Malgré une importante baisse tarifaire des grands constructeurs ces dernières années, les PC assemblés restent meilleur marché. Ça n’apparaît pas évident en entrée de gamme, les Acer, Dell, HP et consorts proposant des tarifs très agressifs, mais le PC assemblé conserve le luxe du choix des composants et un équilibre toujours parfait ; il évite des travers comme, par exemple, le coup du GPU d’entrée de gamme affublé de 2 Go de mémoire « parce que ça fait vendre ». Et plus on monte en gamme, plus l’écart en faveur du PC assemblé se creuse, une machine de gamer à 2 000 € d’une grande marque ne coûte que 1 500 à 1 700 € assemblée, choix (et donc qualité) des composants en prime. Le seul domaine où les PC de marque ont l’avantage financier serait la licence Windows fournie ? C’est effectivement un « plus » financier à prendre en compte, si vous désirez acheter le dernier OS de Microsoft. Une licence Windows 7 Home Premium OEM (telle celle des PC de marque) rajoute environ

30 PC Update

100 € à la facture. En revanche, si vous n’en avez que faire (vous possédez déjà une licence ou prévoyez un OS libre comme Linux), obtenir un remboursement (qui tournera autour de 40 € seulement pour un 7 Home Premium) est un vrai calvaire. Mention spéciale pour les machines des « e-tailers », c’est-à-dire des machines assemblées à la commande par les grands revendeurs en ligne, tels que Materiel.net ou LDLC. Ici, les prix sont comparables à ceux d’une machine montée soi-même, c’est une alternative viable pour les réfractaires au tournevis. Suivez bien nos recommandations (dossiers, guides d’achat, machines de référence en fin de magazine) pour éviter de vous faire refourguer une fin de stock, comme c’est parfois le cas. Il n’y a d’ailleurs pas de système d’exploitation imposé à l’achat. Question

02

Le PC de marque offre-t-il une meilleure garantie ?

Non, contrairement aux idées reçues. Généralement, sauf à souscrire un contrat payant, les PC de marque ne sont garantis qu’un ou deux

ans. Certains composants PC ne sont garantis qu’un an… mais la majorité d’entre eux le sont trois ou plus (carte mère, disque dur, mémoire vive, alimentation…), quand ça n’est pas « à vie » comme chez Corsair ou EVGA. D’autre part, lorsqu’un composant aussi peu indispensable que le lecteur de cartes mémoire d’un PC de marque tombe en panne, c’est toute la machine qui part en garantie ! Dans le cas du PC assemblé, il n’y a qu’à démonter ledit lecteur en 5 minutes et la machine reste fonctionnelle ! Question

03

Quand faut-il upgrader ?

Si la puissance des composants évolue vite, il n’en va pas de même de nos besoins. Par exemple le nouveau processeur qui remplace le vôtre, tout en étant 20 % plus rapide. L’upgrade est tentante, mais vous apportera-telle un mieux au quotidien ? Pas sûr. Il en va de même pour la carte graphique. S’il faut opter pour des cartes hors de prix afin de sentir un coup de boost sur vos FPS, ce n’est pas raisonnable, tant que vous ne ressentez pas des saccades prononcées et fréquentes. Acheter le milieu de gamme de chaque génération ou acheter le haut de gamme toutes les deux générations revient au même en termes de prix sur le long terme. Toutefois, l’upgrade plus régulière, en optant pour le milieu de gamme, permet de conserver un niveau de performances plus homogène et si vous revendez vos composants en occasion,

ArmA II avec ses immenses étendues met à mal les CPU les plus puissants. Un excellent exemple de limitation CPU !


ils décotent moins rapidement puisque moins vieux. Mais il s’agit avant tout d’une question de philosophie. En règle générale, le CPU ne devient pas subitement une limitation. Tant qu’il s’agit d’un dual core correct, il ne devrait pas montrer de signes de faiblesse particuliers en bureautique. Les applications plus gourmandes (rendu 3D, traitement de l’image, montage ou encodage vidéo) saturent facilement un ou tous les cores, auquel cas le changement de CPU permettra de finir le calcul plus rapidement, sans pour autant lever cette bride. Dans le cas d’un filtre Photoshop, par exemple, passer d’un Core i5 750 à un Core i5 2500K permet de réduire de 40 % le temps de calcul. En revanche, la carte graphique a des symptômes plus concrets. Si le jeu saccade, il n’est plus possible d’en profiter pleinement. Afficher 60 ou 400 FPS ne change rien, mais passer de 20 à 40 fait une énorme différence. La limitation dans les jeux est un exemple très particulier. Pour afficher les images, le CPU va d’abord décomposer la scène et exécuter quelques calculs, suite à quoi la carte graphique exécutera les ordres que celui-ci lui a transmis. Si les instructions ne sont pas transmises par le CPU assez rapidement, c’est lui qui bride le framerate, et changer la carte graphique n’apportera rien. Il faut alors opter pour un processeur plus rapide. Identifier ce problème est assez simple : si le gestionnaire des tâches Windows vous indique 100 % de charge CPU (onglet Performances) lorsque vous jouez, il y a fort à parier que le CPU pose problème. Un petit tour par le BIOS, en rajoutant quelques centaines de mégahertz (si c’est possible), vous permettra de confirmer le diagnostic si le framerate augmente.

A partir de quand le stockage est-il une bride pour les performances ? Question

04

Si on a tendance à se focaliser sur la puissance CPU et GPU, on ne répétera jamais assez à quel point il ne faut pas négliger le stockage. Certes, s’il s’agit de données comme de la musique ou des films, un simple disque dur volumineux des quelques dernières années suffit. Même sur un film HD en relief, les débits maximums sont de l’ordre de 8 Mo/s. En revanche, le lancement d’applications au quotidien et un simple client mail regroupant quelques milliers d’échanges demandent à la fois de bons débits mais aussi une bonne réactivité. A ce compte, les disques durs ont fait de gros progrès puisqu’on atteint désormais près de 150 Mo/s sur les plus rapides d’entre eux. Plus le périphérique sera rapide, plus l’application se lancera vite, à tel point que passer d’un disque classique 500 Go âgé de 3 ou 4 ans à un moderne 2 To

Tant que les jeux sont bridés par leurs portages consoles, il est plus utile de passer au SSD que d’upgrader CPU ou GPU.

Le passage au SSD est une upgrade valable pour une grande majorité de configurations.

en 7 200 TPM peut s’avérer 30 à 40 % plus rapide. Mais la meilleure upgrade en 2011 concerne le SSD. Celui-ci est bien plus rapide encore qu’un disque dur, et sans parler des débits, l’accès aux petits fichiers est incroyablement véloce (le temps d’accès d’un SSD est inférieur à 1 ms, les meilleurs disques durs SATA tournent autour de 12 ms). Tout le système en bénéficie puisque Windows se lance plus rapidement, qu’il est plus facile d’alterner entre diverses applications et que celles-ci requièrent moins de temps pour s’ouvrir. Fini le temps où on fermait des applications pour ne pas trop ramer.

Digital TrueHD, DTS-HD Master Audio), ferait repartir ce marché avec l’apparition d’une nouvelle espèce de cartes son orientées home cinéma, mais c’était sans compter sur la généralisation des prises HDMI sur les cartes graphiques, cartes graphiques qui permettent également de sortir du son multicanal HD à l’aide du chip son intégré ; si vous branchez une carte graphique moderne (GeForce GT400/500 ou Radeon HD5000/6000) sur un ampli de salon en HDMI, il n’y a même plus besoin d’utiliser la carte son intégrée à la carte mère. Le seul intérêt que nous voyons encore à l’achat d’une carte son de qualité (minimum 60 €, consultez notre best of paru dans PC Update n° 50, offert sur www. pcupdate.fr/pdf/PC_Update_special_50.pdf) concerne les mélomanes qui passent des heures à écouter de la musique haute qualité (MP3 320 kbps, FLAC, CD Audio ou supérieur) sur un casque ou un équipement hi-fi haut de gamme, avec une connectique analogique.

Une carte son estelle encore utile de nos jours ? Question

05

Les temps sont durs pour les constructeurs de cartes son. La qualité des chips son embarqués aux cartes mères a tellement progressé que, s’il existe encore un réel écart qualitatif mesurable par des appareils, la différence est de plus en plus difficile à percevoir à l’oreille. Et encore, nous parlons là du scénario avec branchement analogique, car si vous utilisez une connectique numérique, il n’y a même plus de différence. Nous aurions pu croire que le HDMI, indispensable pour profiter des formats audio HD en multicanal (Dolby

Une carte son haut de gamme avec sortie HDMI n’est pas indispensable pour profiter des pistes audio HD des Blu-Ray, la majorité des cartes graphiques de l’actuelle génération en sont capables.

PC Update 31


dossier : questions micro

Upgrade CPU, GPU, fautil prévoir une nouvelle alimentation ? Question

06

La mise à niveau de composants tels que le CPU ou le GPU est susceptible de faire évoluer la consommation de votre PC. D’autre part, les connectiques évoluent et les composants dernier cri réclament des prises qui n’existent pas sur les alimentations d’un certain âge. Au sujet de la puissance, même si votre alimentation a quelques années, elle doit être capable de délivrer au moins 350 ou 400 W. C’est une puissance suffisante pour une machine équipée d’un CPU et d’un GPU d’entrée ou de milieu de gamme. Par exemple, pour une ancienne machine Core 2 Duo avec une GeForce 9800 GT, vous pourrez upgrader en restant dans le même niveau de gamme avec une HD6850 ou une GTX460, en conservant votre alimentation actuelle. Pour passer à un GPU plus haut de gamme, c’est un peu limite et de toute façon dommage, sans changer de processeur. De même, les processeurs d’entrée et milieu de gamme n’ont pas trop évolué en consommation depuis ces dernières années, les alimentations de 3 à 5 ans d’âge sont généralement adaptées à l’installation d’un Core de seconde génération, ces derniers étant particulièrement économes. Les plateformes à six coeurs, tant chez AMD qu’Intel, réclament au moins une alimentation de 400 W, 500 W avec une carte graphique digne de ce nom. Enfin, si vous visez à la fois un processeur et un GPU haut de gamme, 500 W est le minimum, un modèle de 600 à 700 W étant plus indiqué. Si vous possédez une ancienne alimentation haut de gamme et puissante et qu’elle vous convient toujours, par exemple une Corsair HX 620 W, ne la changez pas ! A propos des connectiques, il est indispensable d’avoir au moins un 20 pins pour la carte mère et un 4 pins pour le CPU, mais le passage au 24 pins carte mère est très souhaitable vu la multiplication des équipements. Pour le 8 pins CPU, sauf très gros overclocking, vous pourrez vous en passer. Plus de précision en fin de dossier dans la rubrique dédiée aux alimentations.

Pas besoin d’avoir un bloc dernier cri pour profiter d’un PC moderne.

32 PC Update

Contrairement aux années passées, la plupart des applications et des jeux profite des processeurs quad core.

CPU

Quels sont les critères de performances d’un CPU ? Question

07

A quoi sert la mémoire cache ?

Longtemps considéré comme l’élément principal de tout PC, le processeur conserve un rôle de premier plan. De nombreux critères déterminent ses performances, au rang desquels fréquence et nombre de coeurs sont sur les starting-blocks. Toutefois, pour progresser, les fondeurs sont obligés d’innover en améliorant les architectures et en ajoutant de nouvelles technologies. Mais qui ne s’est jamais posé de questions sur l’intérêt de tel ou tel progrès en comparant les CPU ? Nous constatons, par exemple, qu’il y a de plus en plus de mémoire cache L2 au fil des ans (et même L3), mais à quoi sert la mémoire cache ? C’est une mémoire ultrarapide, placée au sein même du CPU, qui vise à améliorer la vitesse d’exécution en réduisant le nombre d’accès à la RAM, trop lente et éloignée. Globalement, plus il y en a, plus performant est le processeur.

Pour effectuer ses calculs, le processeur doit régulièrement accéder aux données des programmes en cours. Malheureusement, les moyens de stockage sont de vrais tracteurs vis-à-vis de la vitesse d’exécution d’un CPU, même les plus véloces des SSD. C’est pour ça qu’existe la mémoire vive, nettement plus rapide, afin de conserver temporairement les fichiers en cours d’utilisation pour que le CPU soit alimenté. Mais, bien que la RAM soit beaucoup plus rapide qu’un disque dur (par exemple, de la DDR3 PC12800 a une bande passante théorique maximale de 12,8 Go/s, à comparer aux 500 Mo/s des meilleurs SSD !), c’est encore un frein pour nos processeurs ! C’est pourquoi les fondeurs ajoutent aussi de la mémoire au sein même des CPU, une mémoire très complexe à fabriquer et très coûteuse, d’où sa présence en quantité réduite. Mais côté performances, c’est Byzance. Le cache L1, situé au plus près des unités d’exécution, dépasse les 40 Go/s ! Le cache L2,


en périphérie, flirte avec les 30 Go/s sur les dernières générations ! Certains processeurs ont même un cache L3 partagé entre plusieurs cores, dont la vitesse reste supérieure à la meilleure des RAM. Et la mémoire cache n’apporte pas qu’une bande passante supérieure, sa proximité avec le CPU permet surtout de réduire au maximum les temps de latence, vu qu’il y a beaucoup moins de chemin à parcourir pour les données. La notion de niveau (L1, L2, L3) existe depuis de nombreuses années et les performances de cette mémoire cache diminuent au fil des niveaux ; les constructeurs souhaitent sans cesse améliorer la quantité de mémoire cache de leurs processeurs, mais il n’est physiquement pas possible d’en faire tenir une importante quantité au plus près (et donc au plus performant) des pipelines. Le cache L1 est d’une capacité ridicule, 64 ko par core sur un Core i7 par exemple. Un peu plus éloigné, le cache L2 grimpe à 1 Mo par core et, pour harmoniser les performances multicores, ce CPU dispose d’un important cache L3 de 8 ou 12 Mo partagé par tous les cores selon qu’il s’agit d’un quad ou d’un hexacore. Les applications ne réagissent pas toutes de la même façon visà-vis de la quantité de cache. Certaines, peu gourmandes (traitement de texte, surf sur le Net, jeux avec peu d’IA), se fichent bien qu’il y ait plus de cache sur un Core i7 que sur un Core i3. Mais dès que de grosses quantités de calculs sont en jeu (calculs scientifiques, imagerie de synthèse, jeux 3D exigeants), la mémoire cache améliore les performances et nous pouvons parler parfois de dizaines de % en mieux ! Question

08

Qu’apporte une finesse de gravure réduite ?

La finesse de gravure est, littéralement, la taille occupée par les transistors gravés au sein d’un die de CPU. Meilleure est la finesse, plus il est possible de loger de transistors sur une surface donnée. Plus de transistors signifie plus d’unités d’exécution, plus de cores, plus de cache ou plus de nouvelles technologies embarquées, bref, plus de performances. D’autre part, la réduction de la finesse de gravure est synonyme de transistors plus petits, avec une grille plus fine et facile à bouger (avec moins de tension électrique) et qui dit moins de tension dit moins d’échauffement, nous sommes dans un cercle vertueux. Enfin, la réduction de la finesse de gravure sur une génération de CPU donnée réduit donc la surface du die, ce qui veut également dire que le fondeur peut en fabriquer plus par wafer (galette de silicium), cette augmentation de rendement s’appelant le yield et s’accompagnant, potentiellement, d’une réduction des coûts donc de la facture ; c’est du moins le cas lorsque la fabrication

est maîtrisée car, à chaque nouvelle vitesse de gravure, il y a généralement beaucoup de déchets les premiers mois. Question

09

Qu’est-ce que l’HyperThreading ?

quand même possible de les rétablir grâce aux cartes mères embarquant des southbridges SB750 ou SB850. Les cores instables provoqueront éventuellement des plantages, auquel cas il ne sera pas conseillé de les réactiver, mais dans bon nombre de cas, c’est tout bénéfice pour le bidouilleur. Les Phenom II X2 et X3, ainsi que les Athlon II X3 peuvent donc être transformés en quad core. Le Sempron X1 peut être transformé en dual core équivalent à l’Athlon II X2. Ce dernier est, en revanche, un dual core natif, il n’est pas concerné.

Quel CPU pour quel usage ? Quelles sont les différences entre les processeurs d’entrée de gamme et les plus puissants ? Question

10 Comme l’indique cet utilitaire EVGA E-LEET basé sur CPU-Z, nous avons à faire à un processeur avec Hyperdreading (4 cores et 8 threads).

Au-delà de ces caractéristiques essentielles de la performance CPU, nous avons droit à quelques technologies propriétaires imaginées par les fabricants pour aller encore plus loin. Probablement la plus répandue, qu’est-ce que l’HyperThreading ? Cette technologie, inventée par Intel au milieu de la carrière du Pentium 4, est une astuce qui consiste à faire croire à l’OS qu’il y a deux fois plus de processeurs d’installés. A l’époque, nous étions encore en monocore, mais Windows voyait deux CPU et donc tentait d’envoyer deux threads simultanément au CPU. Absente des Core 2, la technologie a été reprise et améliorée sur les Core i7 (800/900/2000) qui font traiter 8 à 12 threads par l’OS, alors qu’il n’y a réellement que 4 à 6 cores disponibles. Il n’y a bien sûr aucune magie, un processeur avec HyperThreading n’est en aucune façon deux fois plus rapide que son homologue sans. C’est toutefois très malin, car Intel peut ainsi optimiser à fond l’emploi des pipelines de calcul en faisant entrer les nouvelles données d’un second thread, alors que celles du premier sont encore en direction de la sortie un peu plus loin. Concrètement, nos mesures constatent des gains moyens d’un peu plus de 10 % (à condition d’utiliser une application multithreadée), c’est vraiment très bon !

Astuce

Est-il possible de gagner 1 à 2 cores ? Transformer un dual core en quad core, c’est possible chez AMD. Au lieu de procéder comme Intel en produisant des dies hexa, quad et dual core, AMD produit beaucoup de quad core dont tous les cores ne sont pas toujours utilisés. En effet, soit pour répondre à la demande, soit parce qu’ils ne sont pas jugés parfaitement stables, certains cores sont parfois désactivés. S’ils ne sont pas trop endommagés, il est

Intel comme AMD utilisent de nombreuses familles de processeurs. D’un côté, Celeron, Pentium, Core i3, Core i5 et Core i7. De l’autre, Sempron, Athlon et Phenom vont bientôt céder leur place aux séries E, A et FX. Pourtant, les plus petits descendent en droite ligne des plus gros. En effet, les fondeurs développent une nouvelle architecture, en ajoutant de nombreuses innovations. Instruction, organisation du cache, bus de communication, contrôleur mémoire, socket, économies d’énergie, etc. La plus grosse des puces embarque tous les raffinements. Pour proposer des puces moins chères, il faudra augmenter le rendement. Ceci passe par plusieurs étapes, comme la simplification du CPU qui réduit le nombre de rebuts, la réduction de la taille du die qui permet de produire plus de puces par wafer ou la diminution de la fréquence qui permet de valider un plus grand nombre de puces. Le nombre de cores et la quantité de mémoire cache étant très gourmande en nombre de transistors (et donc, en place sur le die), ce sont les deux premiers paramètres qui sont modifiés. On passe ainsi de 8 à 6 Mo de cache entre les Core i7 et i5 de dernière génération (tous quad core) et à 4 Mo de cache sur les dual core. La fréquence est, elle aussi, revue à la baisse puisque les plus gros Phenom culminent à 3,7 GHz (X4 980), alors que les Athlon se contentent de 3,3 GHz. En outre, certaines fonctions sont désactivées comme le Turbo Mode, l’HyperThreading ou des instructions. Sur la dernière génération Intel, les Pentium seront notamment privés du jeu d’instructions AVX, pourtant présent sur les Core i3, i5 et i7. Toutes ces amputations cumulées peuvent facilement réduire les performances de 30 % par core.

PC Update 33


dossier : questions micro

Tirer profit des 12 threads d’une Core i7 970 est encore loin d’être une réalité dans les jeux.

117.5mm² pour le die des Athlon II X2 contre 346mm² pour Thuban, alias Phenom II X6.

Jeux, calcul : faut-il privilégier les cores ou la fréquence ? Le multicore est-il vraiment utile de nos jours ? 2, 4, 6 ? De quoi est fait l’avenir ? Question

11

En 2007, avec le succès des Core 2 Duo et le début des Core 2 Quad, nous recommandions un dual core rapide plutôt qu’un quad core, souvent plus lent. Les applications étaient rarement pensées pour plus de deux cores, tout comme les jeux, à de rares exceptions près. En 2011, la situation a tendance à s’inverser. Désormais, les quad core fonctionnent à la même vitesse que les dual core. En effet, au lieu de proposer des quad core basés sur une association de dual core, c’est aujourd’hui à partir des quad core que sont déclinés les dual core, des versions tronquées en quelque sorte. Du coup, la version native en quatre cores est tout à fait apte à monter en fréquence, ou du moins tout autant que les autres. Intel a même des hexacores au catalogue depuis près d’un an, tandis qu’AMD s’apprête à proposer le premier octocore grand public d’ici l’été et ce sont ces processeurs qui arborent les plus grosses fréquences de leur gamme. En outre, le quad core est devenu plutôt abordable. Alors que le premier Core 2 Quad se vendait plus de 500 € à sa sortie, on trouve des Athlon II X4 à moins de 100 € et le plus rapide vaut aujourd’hui 200 € en la présence du Core i5 2500K. Du coup, ils se sont répandus dans le parc mondial des PC et les développeurs

34 PC Update

n’ont pas eu d’autres choix que de s’y adapter, les forçant à développer leurs programmes pour ces processeurs. Dès lors, bon nombre de jeux utilisent trois à quatre threads, montrant un gain souvent considérable à passer au quad core. Un dual core ne limite pas encore les jeux de façon perceptible puisqu’on arrive le plus souvent à dépasser les 45 FPS, néanmoins ce sera de plus en plus une bride pour le système. Mieux encore, un quad core relativement lent, comme les petits Athlon II X4, s’en sort souvent mieux que les Phenom II X2, vendus plus cher et plus rapides, mais limités à deux cores. En revanche, les hexacores n’ont pas encore énormément d’intérêt, seules les applications massivement multithreadées, comme l’encodage (audio ou vidéo) ou le traitement de l’image, leur permettent de se démarquer. Nul doute que cela changera à l’avenir, mais nos quad core ont encore un bout de chemin à parcourir avant d’être recyclés dans la vielle bécane de Tata Ginette.

Pourquoi Intel change-t-il tout le temps de socket ? Pourquoi AMD s’en passe ? Quel socket choisir ?

Question

12

Lorsqu’un constructeur change de socket, il ne peut exister que deux raisons : une contrainte technique qui impose de revoir le câblage ou une technique de vente semi-forcée qui fait vivre toute une profession, en faisant de nouveau tout changer à l’utilisateur. Qu’Intel abandonne le socket 775 (qui aura tout de même accueilli de nombreux P4 et tous les Core 2) au profit d’un complexe 1366 pour bénéficier d’un bus ultrarapide (QPI), de mémoire trichannel et autres nouveautés, tout le monde peut comprendre. Que l’on passe du socket 1156 au socket 1155 pour la plateforme grand

public, c’est franchement plus difficile. C’est d’autant plus énervant qu’AMD utilise presque le même socket depuis 2005 ! Certes, le brochage évolue quelque peu, le nouveau socket est requis pour exploiter les nouveautés comme l’HyperThreading 3.0 ou la DDR3, mais les processeurs sont tout de même rétrocompatibles sur les cartes mères plus anciennes. Alors, quel socket choisir ? A l’heure actuelle, le seul qui ait vraiment de l’avenir est le récent 1155 d’Intel. La plateforme est sortie en début d’année, la relève n’est pas pour tout de suite. En revanche, s’acheter un Core i7-900 sur socket 1366 revient à se tirer une balle dans le pied, à moins d’un besoin pressant d’un CPU hexacore. Le socket 2011, qui remplacera le 1366 en haut de gamme, est prévu pour la fin d’année. Chez AMD, c’est encore plus imminent puisque les nouveaux processeurs arrivent d’ici un à deux mois ! L’AM3+ reste encore pin-to-pin compatible avec la génération précédente, mais il sera requis pour faire fonctionner les nouveaux CPU, ne vous précipitez donc pas sur les actuelles cartes mères AM3.

AMD reste fidèle au même socket depuis des années, afin de maximiser les possibilité d’upgrade pour ses clients.


Cadeau exceptionnel

Les références des ventilateurs 120mm

Le NF-S12B a été optimisé pour le silence et de faibles vitesses de rotation. Le NF-P12 est quant à lui le compagnon idéal des ventirads pour processeurs et le meilleur compromis puissance/bruit pour un boitier Valable jusqu’au 30/07/2011

abonnement

Avec cet abonnement, nous vous offrons 2 ventilateurs noctua au choix

NOUVEAU : 2 ventilateurs avec une offre un an !! bon de commande 12 numéros + 2 NF-S12B FLX ou 2 NF-P12

Je choisis :

Nom

S12 FLX

P12

Prénom

Adresse Code Postal

Ville

Date de Naissance Paiements trimestriels

Pays Email

Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 19 € par trimestre.

Soit une économie de 38 euros ! Le paiement s’effectuera en 4 prélèvements, un par trimestre. Votre abonnement sera ensuite résiliable à tout moment ou renouvellable par trimestre au tarif de 16 €. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 19 € pour un minimum de un an à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.

Date (obligatoire)


12 numéros bon de commande Nom

Prénom

Adresse Code Postal

Ville

Pays

Date de Naissance

1

Email

Paiement classique Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 62 € Rajouter 12 € de frais de port CEE (reste du monde 20 €)

Paiement par : par chèque à l’ordre de Axiome par carte bancaire Nom du titulaire de la carte N°

Date d’expiration

Veuillez indiquer le code à trois chiffres figurant au dos de votre carte Signature du titulaire de la carte :

2

Date :

Paiements trimestriels Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 16 € par trimestre.

abonnement

Abonnement

Soit une économie de 6.8 euros ! Le paiement s’effectuera en 4 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 16 € pour un minimum de un ans à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/2011

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements Date (obligatoire)

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.


Silence et refroidissement

ventilateur et l’absence de sonde accessible empêche de connaître sa température. Néanmoins, tant que l’entrée d’air n’est pas obstruée, il ne peut pas y avoir de problèmes particuliers. Outre cette température de fonctionnement idéale, tous les composants ont une température de coupure au-delà de laquelle ils s’arrêteront automatiquement. C’est particulièrement vrai de l’alimentation, du processeur et de la carte graphique. Si le PC s’éteint brusquement, pensez à contrôler la température de ces trois composants en priorité. Question

15

Comment faire taire un HDD ? (AAM, fixations boîtiers)

Souvent négligé, le refroidissement de la carte graphique mérite au moins autant d’attention que celui du processeur. Question

13

Quels sont les composants les plus bruyants du PC ?

Les composants qui chauffent le plus sont, en général, les plus bruyants. Les cartes mères se contentent d’un refroidissement passif depuis déjà quelques années, alors que les alimentations ont fait de très gros progrès. Elles ne sont pas toutes aussi silencieuses, loin de là, mais le refroidissement du processeur et surtout de la carte graphique est souvent plus bruyant encore. La consommation des processeurs est de mieux en mieux maîtrisée, de sorte que les derniers processeurs 1155 d’Intel consomment autour de 125 W. Il est plus que conseillé d’offrir un beau radiateur à celui-ci afin d’éviter le supplice du ventirad fourni avec le CPU, cousin germain des mobylettes customs. Etrangement, la carte graphique a moins souvent droit à ce traitement, alors qu’elle consomme souvent plus. La moindre petite HD6870 consomme 150 W et elle est réputée économe ! Les grosses GTX580 vont jusqu’à doubler cette consommation. Les ventirads d’origine sont toujours bruyants sur les grosses cartes, un ventirad à 30 € les réduit pourtant au silence. Bien sûr, une fois ces deux composants plus calmes, ce sera sans doute au tour de l’alimentation de se faire entendre, mais aussi de l’éventuel disque dur, selon le modèle et le boîtier que vous aurez choisis.

Quelles températures ne pas dépasser, composant par composant ? Question

14

Pensés pour encaisser des températures conséquentes, tous les composants n’ont toutefois pas les mêmes limites. Nous parlons ici de températures en pleine charge, les

températures au repos étant toujours basses grâce aux modes d’économie d’énergie. Pour une carte graphique, une température de 80 °C fait partie de la norme. Cela ne veut pas dire que c’est spécialement bon, mais c’est la température à laquelle les constructeurs garantissent leur fonctionnement, certains modèles arrivant même à dépasser les 90 °C. C’est de loin le composant qui tolère le mieux la chaleur. Vient ensuite le CPU, pour lequel nous recommandons de ne pas excéder 70 °C. Un ventirad correct, comme un Scythe Yasya à 45 €, sur n’importe quel CPU actuel le maintiendra sous les 60 °C, vous laissant une marge de 10 °C pour un éventuel overclocking, ou pour ralentir encore le ventilateur. Certains processeurs dual core, comme les récents Core i3 2100, dépassent difficilement les 50 °C, même en pleine charge. La plage des températures de la carte mère, bien qu’elle puisse occasionnellement atteindre 70 °C au niveau du chipset ou de l’étage d’alimentation, se situe plutôt entre 50 et 60 °C. Cela dépendra évidemment du chipset, du radiateur et de l’overclocking. Néanmoins, ne croyez pas qu’une carte mère supporte n’importe quelle température. Pour les usages les plus extrêmes, il faudra donc essayer de la refroidir en plaçant des ventilateurs à proximité des zones chaudes. Le disque dur est nettement plus sensible à la température. Mieux vaut ne pas dépasser 50 °C, une température qu’il n’atteindra jamais pourvu qu’il soit situé dans le flux d’air d’un ventilateur. A l’inverse, les disques durs n’aiment pas non plus les températures trop fraîches (si toutefois, vous jouez dans un igloo). Quant aux SSD, ils n’ont aucune raison de chauffer, mais ce n’est pas une raison pour les coller sur les disques durs. L’alimentation s’autorégulera grâce à son

Un boitier comme le Scythe Himuro permet de contenir les nuisances sonores, d’isoler les vibrations et même d’aider au refroidissement du disque dur.

Le seul composant mécanique du PC a tendance à se faire entendre, une fois que tous les autres ont été bâillonnés. Hélas, on ne peut pas changer le refroidissement puisque c’est ici le moteur des plateaux et la tête de lecture qui produisent les nuisances sonores. Si vous ne supportez pas la moindre baisse de performances, il faut tenter d’isoler le disque dur du boîtier, afin que les vibrations ne soient pas amplifiées par le châssis. Si votre boîtier n’en est pas encore équipé, essayez donc de placer des rondelles en silicone entre le disque et le support métallique du boîtier. Si une telle solution n’est pas envisageable, il existe des adaptateurs 3,5’’ vers 5,25’’ qui intègrent de tels amortisseurs. La solution ultime consiste à suspendre le disque. Des élastiques, des lanières en tissu extensibles ou n’importe quoi qui permet de le maintenir à plat (ou de champ) assez fermement pour qu’il n’aille pas se balader dans la tour. Cette fixation a été utilisée sur le LanBoy Air d’Antec, mais elle n’est pas compatible avec les autres boîtiers. Il est aussi possible d’enfermer le disque afin de contenir le bruit. Mais il ne faut pas le placer dans une vulgaire boîte, il chaufferait beaucoup trop. Le Scythe Himuro est une excellente solution qui a le mérite de contribuer au refroidissement et d’être esthétique.

PC Update 37


dossier : questions micro

Au cas où tout ceci ne suffirait pas ou que vous préfériez ne pas démonter votre PC, l’activation de l’AAM et la mise en veille des disques durs ralentissent le système, mais sont plutôt efficaces. Au lieu de se déplacer brusquement d’un bout à l’autre des plateaux, le déplacement de la tête de lecture sera adouci par l’AAM. Inévitablement, la réactivité en pâtit mais les vibrations sont réduites. L’activation de la mise en veille des disques durs n’est utile que si vous en avez plusieurs, auquel cas tous ceux qui sont inutilisés arrêteront de tourner, diminuant d’autant le souffle constant que produit la rotation des plateaux. Il faudra, en contrepartie, patienter quelques secondes pour qu’ils se réveillent lors de l’accès aux données.

Windows, le BIOS et d’autres logiciels ne donnent pas toujours la même température, qui croire ? Question

16

Si une petite marge d’erreur est tolérée, il arrive que la différence entre la température du processeur donnée par divers logiciels atteigne 10 °C ! Il y a de quoi se poser des questions. Mais il est fréquent qu’aucun des logiciels n’ait tort, il s’agit simplement de sondes différentes. Pour monitorer précisément la température de chaque core (Tjunction), chacun d’eux embarque une sonde. En prime, une autre sonde est placée quelque part au centre du CPU, sous le heatspreader ou sous le socket. Elle a pour but de donner une température plus générale (appelée Tcase). Inévitablement, la température des cores sera plus élevée et parfois, il y a effectivement 10 °C d’écart. Pas de raisons de s’affoler donc, mais la température primordiale reste celle des cores. Question

17

Performances et silence sont-ils compatibles ?

Si l’on considère un ventirad dans son ensemble, le compromis entre le silence et les performances ne tient qu’à un fil et tout vient, en général, du ventilateur, puisque c’est le seul élément générateur de bruit. Si celui-ci tourne trop vite, les

Malgré son âge, Le V10 de Cooler Master est à ce jour le ventirad le plus performant que nous ayons testé !

38 PC Update

températures seront excellentes mais au prix de nuisances sonores trop importantes. A l’inverse, un ventilateur trop lent n’arrivera pas à maintenir les températures à un seuil acceptable. Tout l’art d’un bon ventirad consiste donc à marier un radiateur efficace avec un ventilateur adapté. C’est, en général, possible avec tous les ventirads, mais cela dépend de la chaleur à dissiper. Question

18

Question

19

Quelle est la meilleure stratégie de refroidissement ?

Peut-on envisager un PC 100 % passif ?

Le PC 100 % passif existe, nous l’avons démontré dans PC Update n° 51. Il faut toutefois opter pour des composants qui chaufferont peu et cela implique des performances en baisse. Le CPU fait partie des modèles basse consommation d’AMD ou Intel, c’est-àdire un dual core (plus rarement un quad core) qui fonctionne à une fréquence réduite. La carte graphique est réduite à sa plus simple expression, puisque les modèles passifs sont rares et ne concernent que les plus petits GPU (même la HD5750 a du mal à fonctionner de façon totalement passive). Nous avions même utilisé l’IGP de la carte mère plutôt que d’opter pour une carte graphique qui rajoute un point chaud dans le système. L’alimentation passive implique un rendement bien maîtrisé. En outre, il s’agit souvent de grosses alimentations qui sont bridées, dans le cas des Seasonic X-Series Fanless, les 400 et 460 W sont, en fait, des 750 et 850 W tronquées, d’où leur prix excessif. Le boîtier doit être assez aéré et le radiateur CPU largement dimensionné. Il faudra aussi opter pour un SSD, certes très rapide mais assez coûteux, afin de s’affranchir des vibrations et grattements d’un disque dur. Au final, c’est une machine sans carte graphique et avec un CPU modeste, qui coûte quand même près de 800 €. L’équivalent avec quelques ventilateurs, une puissance supérieure et des nuisances sonores pratiquement similaires coûte facilement 25 % de moins. A moins de dormir avec la tête collée au PC, il s’agit plus d’une quête de geek que de la seule solution pour obtenir un PC vraiment silencieux.

Notre PC 100% passif fonctionne sans ventilateur et sans planter, même en pleine charge prolongée. Néanmoins, on flirte avec les limites et un simple ventilateur améliore considérablement les températures.

Au lieu d’un seul ventilateurs bruyant, plusieurs plus discrets sont préférables.

Chaque cas est unique, il n’y a pas de réponse miracle à cette question. Toutefois, certains points sont valables quelle que soit la configuration. Tout d’abord, plusieurs ventilateurs lents valent mieux qu’un seul. Aux oubliettes la turbine en façade, trois à quatre ventilateurs sous-voltés seront plus silencieux et plus efficaces. Les composants sont équipés de petits radiateurs ou d’ailettes, si bien qu’un simple flux d’air suffit à faire baisser drastiquement leur température. Par exemple, le chipset d’une carte mère, coincé entre le CPU et la carte graphique, peut atteindre 70 °C. Le même système avec un ventilateur de 90 mm tournant à 600 TPM permettra de descendre sous les 50 °C.


En outre, la position des ventilateurs a son importance pour la poussière. Celle-ci est omniprésente et vient se loger dans les ailettes des radiateurs ou sur les pales des ventilateurs. S’ensuivent des températures en hausse et des perturbations aérodynamiques supplémentaires. Ne pas placer de ventilateurs en aspiration mais plusieurs en extraction (peu importe l’emplacement) aura pour conséquence une sous-pression. Dès lors, la poussière rentrera par tous les petits trous du boîtier. A l’inverse, la surpression n’est pas nocive. Le flux d’air est moins homogène, mais la poussière ne peut rentrer que par les ventilateurs, placer un filtre à poussière devant suffira donc à endiguer cette invasion. Les ventilateurs sur la porte latérale ne sont pas toujours utiles. Ceux-ci se montrent diablement bénéfiques avec des radiateurs à plat et bon nombre de cartes graphiques, ainsi que pour l’ensemble du système. Mais pour les rares cartes graphiques qui expulsent l’air par la tranche (et c’est de plus en plus courant sur les cartes haut de gamme) et les ventirads CPU tours, ce n’est d’aucun intérêt et ne contribue qu’à augmenter la pression sonore. Dans le même registre, les ventirads CPU et GPU doivent respecter une certaine logique. Pour les premiers, il faudra éviter d’aspirer l’air à proximité d’un point chaud comme la carte graphique, même si cela s’accorde mieux avec la ventilation du boîtier. Et pour les seconds, bien que les blowers (les ventirads qui soufflent l’air le long de la carte graphique pour l’expulser à l’extérieur du boîtier) soient en théorie préférables, ils se révèlent finalement peu attrayants. Ils parviennent, certes, à faire gagner jusqu’à 8 °C sur la température ambiante, mais le ventilateur est trop bruyant, couvrant le bruit de tous les autres. Dans le cas où le ventirad diffuse l’air chaud à l’intérieur du boîtier, tous les autres composants seront quelques degrés plus chauds, mais la carte graphique sera aussi discrète qu’eux, le niveau sonore global étant alors en baisse. Question

20

Comment connecter et réguler ses ventilateurs ?

Pour ajuster au mieux le bruit émis par son PC et les températures de fonctionnement, il est possible de réguler ses ventilateurs. Il existe toutefois une foule de méthodes plus ou moins souples. Tout d’abord, la façon de brancher le ventilateur va conditionner la souplesse d’utilisation. Les ventilateurs en Molex sont de plus en plus rares, peu à peu remplacés par les prises 3 pins, comme on en trouve sur les cartes mères. Le premier est archaïque et délivre du 12 V,

Les prises PWM de la carte mère permettent d’ajuster la vitesse de rotation des ventilateurs et de les asservir à des sondes de températures.

Les caloducs acheminent la chaleur à dissiper de la base vers les ailettes. En théorie, plus il y en a et plus ils sont gros, meilleures seront les performances.

ce qui signifie que le ventilateur tournera à 100 % de sa vitesse sans possibilité de le réguler. Il est toutefois possible d’inverser les câbles rouge et jaune sur la prise afin de brancher le ventilateur en 5 V. Celui-ci ne démarre pas toujours, mais si c’est le cas, il sera alors bien plus discret. Le branchement en 3 pins sur la carte mère permet, sur les cartes récentes, d’ajuster la vitesse de rotation du ventilateur. En général, entre 40 et 100 %, et de manière fixe, il faudra retourner dans le BIOS pour ajuster cette valeur. La connectique 4 pins ou PWM que l’on retrouve aussi sur les cartes mères est bien plus évoluée, puisqu’il est alors possible de paramétrer des règles de ventilation, en asservissant le ventilateur à une sonde de température. Ainsi, il n’accélérera que lors des charges prolongées, préservant au moins le silence lorsque le PC est au repos. Il existe aussi des logiciels propriétaires ou le célèbre SpeedFan qui permettent d’ajuster les règles d’asservissement sous Windows et bien plus finement que dans le BIOS. Des solutions plus coûteuses, comme l’Aquaero d’AquaComputer, permettent la même chose avec quatre ventilateurs si votre carte mère ne dispose pas de ces fonctions. Enfin, plus basique, le classique rhéobus permet d’ajuster à la main la vitesse de rotation des ventilateurs. Les rhéobus se distinguent par leur méthode de régulation, le nombre de ventilateurs gérés, ainsi que les fonctions annexes (sondes, alarmes, affichage LCD). Il faudra toutefois penser à ajuster les ventilateurs lors des charges, si ceux-ci ne tournent pas assez vite pour refroidir correctement la configuration.

Quels sont les critères de performances d’un ventirad ?

Astuce

Sur une prise molex, inverser le fil jaune et le fil rouge permet de brancher les ventilateurs en 5V (au lieu de 12V).

Question

21

Nombre et épaisseur des caloducs, densité et forme des ailettes, base, fixation et ventilation définissent les performances d’un ventirad. Néanmoins, il est impossible de dire qu’un radiateur avec six caloducs sera plus performant qu’un autre qui n’en aurait que quatre. En revanche, la surface de dissipation, c’est-à-dire le nombre d’ailettes présentes, reflète souvent la capacité de refroidissement. Plus le radiateur sera gros, plus il sera donc efficace. L’espacement des ailettes a aussi son importance, puisque plus elles seront serrées, plus la ventilation devra être musclée. A l’inverse, si elles sont assez écartées, le radiateur pourra fonctionner sans aucune ventilation. La forme du radiateur a assez peu d’importance. Qu’il soit au format double tour, simple tour ou à plat, tous les cas de figure sont envisageables. En général, les radiateurs double tour sont plus conséquents, et sont donc les plus performants. Néanmoins, une très grosse tour comme un HR-02 n’est jamais très loin. Les radiateurs dits « à plat » ne sont pas foncièrement moins performants. Ils le sont car ces solutions se destinent à des boîtiers moins volumineux et donc, l’optimisation de la place prime sur la performance pure. Néanmoins, un radiateur comme le Noctua NH-C14 arrive aux mêmes températures qu’une tour de 120 mm, comme un Super Mega de Prolimatech. Question

22

Pâte thermique : accessoire ou élément primordial ?

Afin que le contact entre le composant à refroidir (généralement GPU ou CPU) et la base du radiateur soit optimal, il faut utiliser de la pâte thermique. Celle-ci sert à combler

PC Update 39


dossier : questions micro

La pâte thermique n’est pas un luxe optionnel, elle est absolument nécessaire !

les irrégularités des deux surfaces, au lieu de laisser de l’air occuper cette place. Les performances s’en ressentent énormément, un Core i5 2500K sans pâte thermique est 20 °C plus chaud qu’avec. En charge, il plante irrémédiablement. A cela, s’ajoute la différence entre une bonne et une mauvaise pâte qui peut atteindre une dizaine

Overclocking

de degrés ! Arctic MX-3 et Prolimatech PK1 Nano constituent nos références actuelles. Enfin, une fois votre ordinateur installé, il faudra essayer de changer cette pâte de temps à autre. Elle perd, en effet, de ses propriétés, la changer une fois par an avant les chaleurs estivales constitue un scénario idéal.

un potentiel d’overclocking énorme puisqu’ils n’ont aucun mal à dépasser 4,5 GHz. Hélas, il faut posséder une version K (i7 2600K ou i5 2500K), dont le coefficient est débloqué à la montée puisque l’overclocking par la fréquence de base est quasi nul. Chez AMD, la génération de Phenom premiers du nom n’était pas glorieuse, elle avait toutes les peines du monde à atteindre 3 GHz, même entre les mains des plus doués. Heureusement, la génération suivante, actuellement en vente et composée des Athlon II et Phenom II, monte un peu mieux. Les premières puces, livrées début 2009, atteignaient 3,6 GHz, mais au fil des mois et des révisions, il est devenu plus courant d’atteindre les 4 GHz et parfois même de les dépasser. A grand renfort d’azote et de tension, les Phenom II, Core i5 600 et Core i7 900 hexacores arrivent toutefois à tourner entre 6 et 7 GHz. De quoi surpasser le biXeon de son collègue de travail…

Overclocker 7 j/7 réduitil la durée de vie des composants ? Question

Les Core i7 2600K n’ont aucun mal à atteindre des fréquences ahurissantes avec un simple ventirad.

Quelles sont les fréquences maximales que peuvent atteindre les CPU ? Question

23

Un CPU se comporte un peu comme un objet fait à la main, ils ne sont pas tous identiques. S’ils auront bien tous la même apparence physique et les mêmes performances à une fréquence donnée, certaines micro-imperfections dans le silicium qui les compose peuvent mener à de grosses disparités dans les fréquences maximales atteignables en overclocking. Néanmoins, de grandes tendances se dégagent, pour des tensions et des températures que nous pensons raisonnables. Les Core 2 ont connu différentes évolutions et déclinaisons. Par ordre chronologique, les premiers dual core arrivaient facilement à passer les 3 GHz et pouvaient atteindre 3,6 GHz. Les versions 4 cores arrivaient globalement aux mêmes résultats mais chauffaient beaucoup et s’arrêtaient donc un peu plus tôt. La deuxième fournée de Core 2, gravée en 45 nm

40 PC Update

n’avait plus de mal à dépasser les 4 GHz, les meilleurs atteignaient même 4,5 GHz au quotidien. Petit bémol toutefois, certaines versions, notamment les E8200 et les quad core, étaient limitées par leur FSB. Le petit coefficient rendait, en effet, plus dure la montée en fréquence. Aussi, atteindre 4 GHz, même avec un Q9550 était très rare. Les Core i7 900 quad core sortis en 2008 conservent cette facilité à monter en fréquence autour de 4 GHz, mais leur chauffe un peu plus conséquente nécessite un watercooling pour atteindre ces résultats. Même verdict, autour de 4 GHz, pour les quad core au socket 1155. En revanche, les dual core supportent une fréquence plus élevée, autour de 4,4 GHz, grâce à leur gravure en 32 nm. Eux aussi gravés en 32 nm, les hexacores au socket 1366 ne peuvent pas monter autant. Néanmoins, ils parviennent à atteindre la même fréquence que leurs cousins quad core, soit 4 GHz, une belle performance donc. Enfin, les tout derniers processeurs Intel au socket 1155 ont

24

Pratiqué dans les règles de l’art, l’overclocking n’aura pas (ou très peu) de conséquences sur la durée de vie du matériel. Cela signifie que les composants doivent tous être bien refroidis et que les tensions soient augmentées de façon parcimonieuse. Un PC bien refroidi dans ces conditions durera sûrement plus longtemps qu’un PC mal étudié vendu en grandes surfaces et atteignant souvent des températures critiques. Néanmoins, il est impossible de situer précisément le seuil entre un overclocking sans risques et un autre légèrement risqué. Dès lors, la vie des composants sera sans doute affectée, mais qui se soucie qu’un processeur ne puisse fonctionner que 12 ans au lieu de 14 ? Tout est question de modération. Prenons toutefois un exemple concret, le VID des processeurs. Pour un même modèle de CPU, par exemple un Q6600, certains fonctionneront à 1,15 V, alors que d’autres nécessiteront 1,3 V.


Pourtant, tous deux sortent des usines Intel et ont passé les mêmes tests très stricts, laissant donc présager de la même durée de vie. Les fondeurs prévoient toujours une marge de sécurité (température, fréquence, tension), plus ou moins large selon les composants. La réduire ne présente pas de risques, mais l’outrepasser peut avoir des conséquences sur le matériel. La gravité de celles-ci est directement liée au dépassement de la marge de sécurité.

L’overclocking sous Windows permet-il d’aller aussi loin que via le BIOS ?

Question

25

Longtemps l’apanage des plus acharnés, l’overclocking a été démocratisé grâce à l’avènement des BIOS permettant de tout paramétrer facilement. Pour vulgariser encore cette pratique, tous les constructeurs de cartes mères proposent désormais un logiciel d’overclocking sous Windows. Parfois décriés par les puristes, ils sont pourtant tout à fait fiables et bien plus clairs. Tout d’abord limités à la modification de la fréquence de base et de quelques tensions, ces logiciels ont rapidement ajouté le réglage précis de toutes les tensions et la gestion du coefficient processeur. Celui-ci est même gérable core par core sur les dernières plateformes. Il reste impossible de modifier les timings mémoire à la volée, mais ceux-ci sont tout de même enregistrés et appliqués au reboot suivant. Certains ratios (uncore, HTT ou QPI par exemple) sont toujours inaccessibles hors BIOS, mais ce sont là des réglages bien plus fins et souvent moins sensibles.

Pourquoi faut-il augmenter la tension pour augmenter la fréquence ? Question

26

Le processeur est constitué de millions de transistors. Ces transistors peuvent avoir deux états, soit 0 soit 1 (ouverts ou fermés, tension nulle ou tension positive). Le laps de temps pour passer de l’état ouvert à l’état fermé définit la fréquence de ces transistors et donc du processeur. Augmenter cette fréquence a pour conséquence certaines fuites, mais surtout une plus grande difficulté à discerner les deux états. Augmenter la tension permet donc d’augmenter la différence entre les deux états, évitant donc les erreurs qui se traduisent par une instabilité. Néanmoins, les transistors ont des limites physiques, qui varient selon la température. Aussi, il ne suffit pas d’augmenter indéfiniment la tension pour atteindre des dizaines de gigahertz. En outre, ces transistors ne sont pas conçus pour encaisser une tension trop importante, il faut donc savoir contenir ses ardeurs. Une augmentation de 15 à 20 % de la tension représente, en général, une limite haute qu’il vaudra mieux ne jamais dépasser, au risque de devoir prétexter avec toute la mauvaise foi du monde que c’est la faute de la carte mère si le processeur est mort ! Ce principe de fonctionnement s’applique à peu près à tout ce qui compose un ordinateur de nos jours.

Augmenter la tension permet d’éviter les erreurs responsables des plantages.

L’étage d’alimentation de la carte mère peut-il limiter l’overclocking ? Question

27

Lors de forts overclockings, la tension délivrée par la carte mère peut avoir de grosses conséquences sur la stabilité du système. Une légère chute de tension lors d’une forte charge CPU peut suffire à faire planter le système. Il est aussi possible que la tension délivrée ne soit pas suffisante, ne permettant donc pas de monter plus en fréquence. Néanmoins, si l’étage d’alimentation était un critère très important au début de l’overclocking et notamment avec les Pentium 4, très gourmands, ce n’est plus aussi primordial de nos jours. Et c’est en grande partie grâce à la qualité de fabrication qui a fait un gros bond en avant, mettant fin aux cartes mères de seconde zone. Même une petite UD3 chez Gigabyte suffit, en général, à pousser son processeur à son maximum en aircooling. Toutefois, ces considérations restent encore parfois valables pour l’overclocking extrême, permettant encore aux constructeurs de se vanter d’avoir un étage d’alimentation plus gros que leurs concurrents.

La mémoire peut-elle tourner moins vite que sa spécification ? (exemple 1600 à 1333) Question

28

Les logiciels des constructeurs sont de plus en plus évolués et permettent de (presque) tout faire depuis Windows.

Tout comme la fréquence d’une carte graphique ou d’un processeur, celle de la mémoire peut être modifiée. A la hausse, aux risques et périls de l’utilisateur puisque la garantie ne s’applique plus, c’est ce qu’on appelle l’overclocking. A la baisse, il n’y a, a priori, aucune contre-indication de la part du constructeur. Que ce soit parce qu’il est impossible de faire tourner la mémoire à sa fréquence d’origine ou par simple excès de précaution, le seul

PC Update 41


dossier : questions micro

Aujourd’hui, l’étage d’alimentation des plus petites cartes mères est quand même très correct et n’a rien à voir avec les horreurs du passé.

risque est de voir la bande passante mémoire décroître, au même titre que les performances dans certaines applications. En revanche, attention à ne pas descendre trop bas sous peine d’instabilités. Il en va de même pour les timings, qui sont modifiables à votre guise, soit en les resserrant (valeur plus petite) pour plus de performances, soit en les relâchant (valeur plus grande) pour plus de stabilité.

Quelle tension ne pas dépasser sur la mémoire ? Peut-on se contenter d’une tension inférieure à la tension spécifiée ? Question

29

Le JEDEC qui s’occupe de déterminer les standards de mémoire vive a imposé une tension de 1,5 V pour la DDR3. C’est donc la tension recommandée pour la plupart des kits d’entrée de gamme. Côté carte mère, cette tension sera appliquée par défaut, bien qu’elle soit souvent modifiable dans le BIOS. Pourtant, de très nombreux kits sont vendus pour une tension de 1,65 V. Cette valeur arbitraire a été fixée par Intel fin 2008, avec la sortie des premiers Core i7 qui n’étaient pas censés pouvoir encaisser plus de tension. Le marché s’est très rapidement adapté, de sorte que les kits ont alors atteint de très hautes fréquences avec une tension pourtant contenue. En comparaison, quelques mois plus tôt, de nombreux kits fonctionnaient et étaient garantis à 1,8 V et les plus extrêmes d’entre eux atteignaient

La mémoire intègre des profils moins agressifs que celui d’origine pour maximiser la compatibilité.

42 PC Update

Les cartes overclockées d’usine sont souvent vendues un peu trop cher face à un overclocking manuel gratuit.

même 2,1 V. On se souvient notamment des kits ADATA et CSX qui reprenaient ces valeurs pour les premiers kits destinés aux Core i7. Deux ans plus tard, cette tension relativement basse a été conservée puisque les puces du moment ne tirent pas ou peu bénéfice d’une tension accrue. Néanmoins, jusqu’à 1,8 V, la DDR3 a peu de risques d’être endommagée, bien que ceci présente des risques que la garantie ne couvre pas, comme tout ce qui touche à l’overclocking. Que ce soit par souci d’optimisation ou parce que votre carte mère est limitée, il est aussi possible de faire fonctionner la mémoire à une tension inférieure à celle certifiée par le constructeur. Assurez-vous simplement que celle-ci est stable. Si elle ne l’est pas et que vous ne souhaitez pas ou ne pouvez pas augmenter la tension, il faudra trouver une combinaison de fréquence et de timings qui se montre stable pour la tension donnée.

Faut-il acheter une carte graphique overclockée d’usine ou le faire soi-même ? Question

30

L’overclocking d’une carte graphique se révèle si facile qu’il serait dommage de ne pas s’y attarder. De nombreux logiciels sont disponibles et le nombre de paramètres est si réduit que cette pratique n’a rien de bien compliqué. Une fois l’overclocking stabilisé, il est même possible de l’enregistrer dans le BIOS de la carte graphique, donnant lieu à une carte qui aura le même comportement qu’une carte overclockée, sans que cela ne coûte le moindre centime. Il faudra, cependant, mettre les mains dans le cambouis et y consacrer quelques heures. Bon nombre de cartes sont modifiées par les constructeurs. Le PCB et le ventirad sont alors revus, et cela donne parfois des résultats agréables, notamment des cartes très silencieuses, dont la tension peut être modifiée plus facilement ou qui proposent des sorties

vidéo supplémentaires inédites, le tout pour un prix finalement contenu. Il s’agit donc de solutions clés en main que nous apprécions tant que leur prix n’est pas disproportionné et nous ne manquons pas de tester ces modèles. En revanche, certaines cartes graphiques sont livrées de base avec un overclocking très poussé, assez proche des limites du GPU et de la mémoire. Ce sont, en général, ces versions qui font l’objet du tri le plus minutieux et qui sont vendues à un prix bien plus élevé. eVGA FTW, Point of View Beast, PowerColor PCS++, Gainward Goes Like Hell, Sapphire Toxic… ces versions ne sont pas attrayantes, tout au plus gagnerez-vous un petit pourcent de performances comparé à un overclocking maison. C’est encore moins intéressant quand il s’agit d’une version physiquement identique au modèle de référence AMD ou nVidia.

Astuce

Mon PC plante aléatoirement, comment diagnostiquer le composant fautif ? Si le PC plante au bout de quelques minutes ou heures d’utilisation, il y a de bonnes chances pour que la RAM soit incriminée. Cela dit, la carte mère, le CPU et même la carte graphique ont également leur mot à dire alors, comment savoir ? A l’aide des bons logiciels, testez un à un les composants en les soumettant à rude épreuve. Pour tester la mémoire seule, chargez Memtest86+ (www.memtest. org). Le PC doit être capable de tenir au moins trois passes complètes pour que l’on puisse envisager d’exclure la responsabilité du sousensemble mémoire (contrôleur + barrettes). Sous Windows, Prime95 (www.mersenne.org) propose un bench qui tire à fond dans le CPU en utilisant un minimum de mémoire. Si c’est stable, vous pouvez cumuler la charge CPU et RAM à l’aide de LinX (en précisant bien d’utiliser toute la RAM disponible). Pour tester la carte graphique seule, c’est FurMark qu’il vous faut. Ce dernier sollicite toutefois un core de votre CPU pour fonctionner. Dès que vous parvenez à identifier le plantage, essayez des réglages plus doux (timings mémoire relâchés, fréquences abaissées) pour voir si les choses s’améliorent, sans quoi il faut tester avec d’autres composants.


Cartes Mères En achetant une carte haut de gamme, c’est aussi pour son look plus abouti !

Quelles différences y a-t-il entre une carte mère à 100 € et une autre à 300 € ? Pourquoi payer plus cher ? Question

31

Il y a 10 ans de ça, les cartes mères premier prix battaient des records. Les PC Chips et ECS, épaulés par la jeune marque ASRock, discréditaient les PC assemblés en utilisant des composants à la fois dépassés et de piètre qualité, au seul motif de réduire le prix. Certes, nous avions accès à des cartes mères dès 35 € (le minimum aujourd’hui tourne autour de 55/60 €), mais qui veut d’une carte à ce tarif si c’est pour planter dans les jeux ou passer des jours à résoudre des conflits matériels ? Heureusement, cette mode de la carte mère bas de gamme a disparu, l’entrée de gamme d’aujourd’hui ne souffre d’aucun défaut notable et en aucun cas d’un manque de qualité. Les différences de prix qui existent entre les gammes de cartes mères s’expliquent avant tout par l’équipement, les fonctions et même le look. Par exemple, les cartes à 150/200 € proposent généralement une compatibilité CrossFire et SLI que les cartes à 100 € n’ont pas, afin d’installer une seconde carte graphique. Elles sont également susceptibles de bénéficier d’équipements supplémentaires comme un contrôleur FireWire ou Bluetooth. En très haut de gamme, de 250 € à des prix sans retenue (les records dépassent 500 € chez EVGA et Gigabyte, Asus n’est pas très loin derrière !), ce sont des cartes plus ou moins extrêmes qui multiplient les composants avec, par exemple, deux cartes réseau, 10 prises USB 3.0 au lieu de 4, voire la possibilité d’installer jusqu’à quatre cartes graphiques simultanément. Nous avons aussi droit à quelques équipements de meilleure facture, par exemple une carte son ou une carte réseau plus haut de gamme. Mais alors, n’existe-t-il pas de différences de performances ? Pas vraiment. Fini le temps des chipsets au rabais qui étaient 10 % plus lents que les meilleurs, les cartes

modernes n’utilisent que de bons composants, même dans leur version basique. Par exemple, pour effectuer un encodage vidéo à l’aide d’un Core i7-2600, une Gigabyte P67A-UD7 à plus de 300 € ne fera pas gagner de temps par rapport à une MSI P67A-C45 qui n’en coûte que 100 ! Nous avons sciemment évité d’aborder le sujet de l’overclocking jusqu’à présent, c’est pourtant là que se distinguent les cartes les plus haut de gamme. Mais si la capacité même d’overclocker était l’apanage des meilleures cartes autrefois, toutes les cartes entre 70 et 250 € sont à même d’accélérer un CPU de façon suffisante pour l’usage quotidien. Les améliorations des cartes haut de gamme (meilleurs étages d’alimentation, composants surdimensionnés, réglages supplémentaires dans le BIOS) ne servent qu’à l’élite de l’overclocking mondial qui pourra, sur tel ou tel modèle, battre un nouveau record. Question

32

Quel est le rôle d’un chipset ?

carte réseau, etc. La notion de chipset est apparue à la fin des années 80. Littéralement un jeu de composants, le but est de regrouper de nombreuses fonctions essentielles dans un nombre restreint de puces. Peu à peu, l’importance du chipset s’est accrue avec le nombre de fonctions et de bus qu’il pilote, au point de devenir le critère de choix numéro 2 d’une carte mère, juste après celui du socket qui conditionne le CPU. Dans une certaine mesure, le chipset impose lui aussi tel ou tel CPU puisqu’à chaque innovation, comme une nouvelle fréquence de bus, s’accompagnent de nouveaux chipsets capables de les supporter. Le schéma le plus courant consiste à découper le chipset en deux puces, à attribuer à l’une d’entre elles les fonctions « hautes performances » comme les échanges CPU, GPU et mémoire et à l’autre toutes les connectiques « basse vitesse » comme le stockage, les bus de cartes d’extension secondaires, le son, l’USB, etc. Pendant des années, nous avons défini ces deux puces de façon générique en tant que northbridge et southbridge, reprenant la façon dont Intel baptisait ces deux puces sur d’anciennes générations de chipsets. Les différentes puces d’un chipset sont reliées entre elles avec un lien haute vitesse généralement propriétaire du constructeur (DMI, HyperTransport). La tendance actuelle est à l’éviction du « northbridge » en le déplaçant peu à peu au sein du CPU, afin de réduire les latences et encore améliorer les performances. Chez AMD, il y a des années (depuis l’Athlon 64 de 2003) que le contrôleur mémoire a quitté le chipset ; chez Intel, il n’existe même plus depuis l’arrivée de la plateforme 1156, laquelle propose contrôleur mémoire, contrôleur PCI-Express et même IGP au sein du CPU, solution reprise avec les nouveaux processeurs 1155 (Core iX 2000). Ce diagramme illustre bien le rôle de chacun des deux composants du chipset X58 pour Core i7-900.

Le chipset est un ensemble de composants clés qui concentre tout au sein d’un PC : toutes les données passent par lui, qu’il s’agisse des calculs CPU/GPU ou de fichiers en provenance d’un disque dur, sans oublier ce qui arrive du réseau ou d’une clé USB. Sachant qu’il n’est pas remplaçable, c’est donc un critère de choix primordial à l’achat d’une carte mère ! Depuis les débuts de l’histoire PC, les cartes mères remplissent de plus en plus de rôles. En partant des modèles primitifs avec un simple contrôleur mémoire épaulé par un contrôleur clavier des années 80, se sont greffés peu à peu les contrôleurs de stockage, de communication, une carte son, une

PC Update 43


dossier : questions micro

Technologies et chipsets Astuce Comment calculer une bande passante ? Qu’est-ce qu’un GigaTransfert ? La bande passante d’un bus, d’une connexion quelconque, est la quantité maximum de données qui peut transiter durant un laps de temps d’une seconde. Elle se calcule en multipliant la largeur du bus (par exemple 16 bits) par la fréquence (par exemple 100 MHz), éventuellement multipliée s’il s’agit d’un bus DDR ou QDR (c’est-à-dire avec une fréquence de fonctionnement supérieure à la fréquence d’horloge, qui envoie deux ou quatre fois les données en un seul cycle d’horloge). Il ne faut pas oublier de diviser le tout par 8 pour obtenir un résultat en octets et non en bits, c’est plus parlant. Par exemple, sur un Core 2 Duo Q9550, la bande passante du FSB est de 64 * 333 * 4/8 = 10 656 ko/s, soit 10,6 Go/s (bits * MHz * Quad Pumped/ conversion en octets). Lorsqu’un bus est bidirectionnel, comme le QPI ou le PCI-Express, la bande passante est virtuellement doublée par deux. Cela dit, si l’on considère les transferts dans un seul sens, le maximum n’augmente pas. Du coup, pour éviter toute ambiguïté, nous parlons alors de GigaTransfert par seconde (GT/s) plutôt que de Gigaoctet par seconde (Go/s).

Quelles sont les bandes passantes des principaux bus ? Y a-t-il des brides ? Question

33

Les ensembles de pistes destinées à faire transiter les données d’un composant à l’autre du PC sont baptisés des bus. Les

cartes mères modernes utilisent trois bus principaux, celui qui s’occupe des échanges entre le CPU et le chipset, celui entre le contrôleur mémoire et la RAM, enfin celui qui s’occupe des cartes filles. Le premier change suivant la plateforme, nous avions par exemple le FSB (Front Side Bus) jusqu’aux Core 2 chez Intel, il a été remplacé par le QPI (QuickPath Interconnect) pour les Core i7-900 (socket 1366) et le DMI (Digital Media Interface) sur les autres processeurs (sockets 1156 et 1155). Chez AMD, c’est HyperTransport qui est utilisé. Pour le FSB des Core 2, suivant que l’on utilisait un CPU à 200, 266 ou 333 MHz, la bande passante était de 6,4, 8,5 ou 10,6 Go/s. Le bus QPI est nettement plus performant, il a été conçu pour les serveurs à deux et quatre processeurs, afin que les échanges d’un CPU à l’autre soient optimums. Il a trois fréquences de fonctionnement, suivant les processeurs, 2,4, 2,93 et 3,2 GHz. Large de 20 bits et bidirectionnel, il en résulte une bande passante qui culmine jusqu’à 25,6 GT/s. Reposant sur une architecture comparable au PCI-Express, le lien DMI des plateformes Intel d’entrée et milieu de gamme est moins impressionnant. Sur le 1155, il est capable de 2,5 GT/s, valeur doublée par le DMI 2.0 sur les machines en 1156 à 5 GT/s. Ces valeurs semblent bien basses, mais n’oubliez pas que ces processeurs intègrent directement le bus PCI-Express et le contrôleur mémoire, ces 5 GT/s sont simplement présents pour les échanges avec les disques durs, SSD et autres périphériques « lents ». Chez AMD, le performant HyperTransport 3.0, en vigueur depuis le Phenom, offre une bande passante de 41,6 GT/s, augmenSur ce modèle, de gauche à droite, PCI-E 1X, PCI-E 16X, PCI, PCI-E16X, PCI et faux PCI-E 16X câblé en seulement 4x.

44 PC Update

tée à 51,2 GT/s avec la révision 3.1 datée d’août 2008. Mais ces valeurs incroyables ne sont pas utilisées sur les PC classiques, HyperTransport a été conçu pour les serveurs multiprocesseurs comme QPI. Sur un micro, le lien entre un Phenom II et son chipset s’établit à 5 GT/s, une valeur suffisante mais moins large qu’Intel puisque AMD confie toujours la gestion du PCI-Express au chipset. Si le FSB bridait légèrement les premiers Core 2 Duo avec un bus de 266 MHz, les valeurs atteintes sur les plateformes modernes sont larges et aucune bride n’est à déplorer côté bus CPU. Le bus mémoire assure le lien entre la RAM et son contrôleur, il est donc imposé par ces derniers. La DDR3 est commune à toutes les plateformes modernes, seule son implantation change, de dual channel sur toutes les machines, sauf les Core i7-900 qui exploitent le trichannel. D’une barrette standard en 64 bits, les transferts peuvent donc se faire à 128 bits en dual channel et 192 bits en trichannel. Suivant la fréquence de la RAM, la bande passante maximale est superélevée. Par exemple, avec de la DDR3-2000 en trichannel, nous avons 192 * 1 000 * 2/8 = 48 000 ko/s, 48 Go/s ! L’occasion est toute choisie pour préciser qu’il peut exister de très importantes disparités entre les bandes passantes théoriques que nous calculons et les bandes passantes réelles. Dans la pratique, la distance des pistes, les connectiques, les différents changements de matière et le passage de travers de certains composants induisent des latences, parfois énormes. Pour vous donner une idée, en restant sur l’exemple du trichannel de la plateforme 1366, nous ne sommes jamais parvenu à dépasser les 25 Go/s en benchs, avec de la DDR3-2200 ! Ces écarts sont particulièrement importants pour la RAM puisqu’elle se doit de fonctionner très vite. Sur un bus pour cartes d’extension, les écarts entre la bande passante théorique et la bande passante réelle sont bien moindres. Parlons-en justement, des cartes d’extension. Le dernier type de bus est, en revanche, un standard universel, il s’agit du PCI-Express. Ce dernier offre beaucoup de souplesse aux constructeurs car il est totalement modulaire. Partant d’un lien de base à 1 GT/s (500 Mo/s par sens), il est possible d’en agréger plusieurs pour créer des ports plus rapides. Ainsi, existent les ports 1x (une seule ligne), 4x (4 lignes), 8x (8 lignes) et 16x (16 lignes) pour des bandes passantes de 1 à 16 GT/s. Plus il y a de lignes, plus les ports sont physiquement longs ; mais décidément très souple, le PCI-Express autorise que l’on branche une « petite » carte (exemple carte 1x) dans un plus grand port (exemple port 4x). Le port PCI-Express 16x est devenu,


CMGZ_PCU_FR_650D_0040411pressQ.pdf

C

M

Y

CM

MY

CY

CMY

K

1

4/5/11

1:03 PM


dossier : questions micro

depuis 2004, le standard pour les cartes graphiques, remplaçant ainsi l’AGP dont l’ultime déclinaison (8x) avait une bande passante de 2,13 Go/s. Pour les autres cartes d’extension, le PCI-Express remplace le PCI, un simple port 1x offre déjà quatre fois plus de bande passante (le vieux PCI était limité à 133 Mo/s) ! Le PCI-Express 2.0 a doublé les débits par rapport au PCI-E 1.x. Prévu pour la fin de l’année, le PCI-E 3.0 doublera encore les valeurs. Notons que le PCI-Express, comme le PCI avant lui, n’est pas qu’un ensemble de ports disponibles pour ajouter des cartes. Les constructeurs s’en servent également pour faire communiquer certains contrôleurs avec le chipset. Par exemple, sur les cartes modernes, les contrôleurs additionnels USB 3.0 passent généralement par 1 ou 4 lignes PCI-Express. Un constructeur de cartes mères qui fait bien son travail ne laisse aucune bride liée à un bus mal adapté, mais il arrive que ça soit le cas, comme les premières cartes mères avec de l’USB 3.0 (625 Mo/s théoriques max) ou du SATA 6 Gb/s (750 Mo/s théoriques max) branchées sur une seule ligne PCI-E 1.1 (250 Mo/s) de la génération précédente. En ce sens, le PCI traditionnel est dépassé depuis longtemps, une simple carte réseau Gigabit (125 Mo/s max) étant presque capable de le saturer.

Combien de lignes PCIExpress y a-t-il sur une carte mère ? Question

34

Le contrôleur PCI-Express prend place dans le chipset et/ou le processeur. Chez Intel, le chipset se charge de quelques lignes pour les périphériques lents, les lignes dédiées aux cartes graphiques étant l’apanage du CPU. Chez AMD, c’est le chipset qui gère tout. Les toutes premières cartes mères PCI-Express avaient un total de 20 lignes à la modularité réduite. Nous avions donc droit à un port 16x pour une carte graphique et un port 4x (ou quatre ports 1x) pour le reste. Désormais, il y a généralement 30 lignes ou plus, avec la possibilité de « séparer » les lignes prévues pour les cartes graphiques en deux ports 16x câblés en 8 lignes seulement. En trichant de la sorte, ça permet d’installer deux cartes graLignes PCI-E 2.0

AM3

AM3

phiques, sans bride puisque 8x offre suffisamment de bande passante même pour les plus gros GPU. Le chipset qui gère le plus de lignes est le 890FX d’AMD, capable d’en piloter 44 ! Le tableau ci-dessous résume le nombre de lignes par plateforme et leur attribution.

De plus en plus de cartes mères ont plusieurs ports PCI-E 16x. Comment choisir sur lequel installer sa carte graphique ?

Question

35

Les ports PCI-E 16x, ceux pour les cartes graphiques, sont à la mode. De plus en plus de constructeurs les multiplient, espérant ainsi attirer les fans de performances qui rêvent secrètement d’un CrossFire ou d’un SLI. Attention aux pièges, surtout en entrée de gamme ! Il n’est pas rare de constater des ports 16x qui ne sont câblés qu’en 4 voire 1x ! C’est une honte, non pas que le port soit inutile, mais il ne faut pas y installer une carte graphique, à moins que ça ne soit qu’un petit modèle secondaire pour piloter un écran de plus. Pour la performance, on repassera. En 4x, la bande passante peut suffire pour les petits GPU, mais les lignes étant là branchées sur le southbridge, il faut ajouter le temps de communication du southbridge au northbridge pour atteindre la première carte, une horreur. Sur les cartes milieu et haut de gamme, les ports sont généralement soit en vrai 16x, soit câblés en 8x, dans les deux cas adaptés aux cartes graphiques. En général, quand il n’y en a que deux, le premier (près du processeur) est en 16x véritable, la configuration change en 8 et 8 si une carte AM3

AM3

775

1156

est installée dans le second. Si bien que pour installer une seule carte, il vaut mieux en général viser le port le plus haut, afin d’être certain de bénéficier des 16 lignes (vérifiable dans l’onglet Carte mère de CPU-Z, www.cpuid. com), mais l’installation dans un port 8x ne réduira pas les performances. Autrement dit, tant que vous n’êtes pas en présence d’une carte mère piège avec un port 16x câblé en 1 ou 4x, l’emplacement importe peu. Certains utilisateurs jouent intelligemment l’optimisation de refroidissement en plaçant plus bas la carte graphique (laissant le port du haut vacant), afin de bénéficier du flux d’air d’un éventuel ventilateur de façade ou de porte. Le principe est le même sur les cartes plus haut de gamme où il y a 3, 4 ports ou plus.

1156

1155

1155

1366

Chipset

870

880G

890GX

890FX

P45

H55

P55

H67

P67

X58

CPU

0

0

0

0

0

16

16

16

16

0

Northbridge

22

22

22

42

16

0

0

0

0

32

Southbridge

2

2

2

2

6 (1.1)

8 (1.1)

8 (1.1)

8

8

6 (1.1)

Total pour carte 3D

16

16

16

32

16

16

16

16

16

32

Total

24

24

24

44

22

24

24

24

24

38

46 PC Update


BIOS/UEFI Question

36

Pas besoin de réinstaller tout l’OS si l’on remplace une carte mère par un modèle qui a le même contrôleur de stockage.

Sur ces cartes complexes, il peut être intéressant de lire la notice de la carte mère pour s’y retrouver. Pour maximiser la puissance 3D (nous parlons de pouillèmes), faites attention à installer vos CrossFire et SLI sur le même contrôleur. Par exemple, si vous possédez une carte très haut de gamme avec deux puces NF200, il vaut mieux qu’un SLI de deux cartes soit branché sur les deux ports alimentés par un seul NF200, encore une fois pour réduire la latence de communication au strict minimum.

Astuce

Remplacer une carte mère sans changer de chipset, faut-il tout réinstaller ? Non, ça n’est pas nécessaire. Sur le plan technique, tant que le contrôleur de stockage ne change pas, Windows sera toujours capable de rebooter et, si certains périphériques de la carte mère changent (par exemple la carte son), il suffit de désinstaller les pilotes caducs, puis d’installer les nouveaux. D’un point de vue des performances, Windows depuis XP gère très bien le remplacement du matériel et vous n’aurez pas l’impression d’utiliser un OS encrassé et ralenti parce que vous avez omis de tout formater. Du temps de Windows 98, le conseil donné aurait été opposé, mais pas besoin de s’embêter avec Windows 7. Les quelques personnes concernées par l’échange des premières cartes P67/H67 B2 par une nouvelle révision B3 ont encore moins à craindre. Les cartes étant identiques trait pour trait, l’OS ne détectera rien de nouveau après l’échange. Du reste, si l’envie vous prend de changer pour une carte mère totalement différente, tant que l’OS connaît le pilote du contrôleur de stockage, aucun problème ! Sous Windows 7, c’est du bonheur. Le cas échéant, il reste possible de les injecter au préalable mais c’est autrement plus compliqué.

Upgrade de BIOS

Qu’apporte la mise à jour du BIOS ? A la fois des correctifs de bugs (par exemple, une incompatibilité mémoire résolue) et le support de nouveaux produits (par exemple, des CPU sortis après la carte mère). Il arrive, mais c’est plus rare, qu’un BIOS apporte également de nouveaux réglages, notamment en ce qui concerne l’overclocking. Si certains font la mise à jour dès qu’une nouvelle version est disponible, les plus prudents ne changeront pas tant que tout fonctionne normalement. Certaines cartes mères sont munies de plusieurs BIOS, peut-on passer de l’un à l’autre ? Si le flash du BIOS se déroule mal (mauvais fichier, plantage, coupure de courant), il y a de bonnes chances pour que votre PC ne démarre plus. Pour plus de sécurité, les constructeurs de cartes mères recourent de plus en plus souvent à l’utilisation de deux BIOS, le second étant justement là en backup en cas de pépin. La gestion n’est toutefois pas la même d’un constructeur à l’autre alors... comment passer d’un BIOS à l’autre sur une carte double BIOS ? Chez Gigabyte, qui a inauguré et démocratisé le concept de dual BIOS, les deux puces sont flashées en même temps lorsque l’on utilise un des outils de flash préconisés par la marque (@ BIOS ou Q-Flash). Si le premier BIOS devenait HS, la bascule sur le second serait automatique. Chez EVGA, qui propose jusqu’à trois BIOS sur ses modèles les plus haut de gamme, un interrupteur mécanique définit sur quel BIOS vous fonctionnez. Ils sont totalement indépendants et la mise à jour ne concerne que le BIOS en cours. Pratique pour les overclockers qui aiment comparer les fréquences max d’une version de BIOS à l’autre. Chez Asus, la gestion est intermédiaire, c’està-dire automatique avec la possibilité de forcer le boot sur un BIOS donné grâce à un cavalier. Nous vous invitons à lire la fiche technique et la notice de votre carte mère pour savoir si vous bénéficiez d’un double BIOS et la meilleure façon de s’en servir. La mise à jour du BIOS peut s’effectuer sous DOS (parfois même dans le BIOS) mais aussi depuis l’OS. Flasher depuis Windows est-il plus risqué ? A peine. La procédure de flashage ne dure que quelques dizaines de secondes, laps de temps durant lequel nous prions systématiquement pour qu’il n’arrive aucun drame. Flasher sous Windows, c’est prendre le

risque d’un plantage, d’un écran bleu, chose qui ne peut arriver sous DOS, mais vous connaissez votre machine mieux que quiconque. Si cette dernière ne plante jamais sous Windows, il n’y a pas de raisons que ça se produise spécifiquement le temps de votre flash. Question

37

Qu’est-ce qu’UEFI ?

UEFI, pour Unified Extensible Firmware Interface est, en quelque sorte, le BIOS v2. Supporté par tous les acteurs importants du marché (AMD, AMI, Dell, HP, Intel, IBM, Microsoft, Phoenix…), UEFI apporte quelques nouveautés intéressantes pour les particuliers. La plus visible concerne l’interface graphique qui évolue. Fini les quelques caractères du BIOS, nous avons désormais droit à une prise en charge native de la carte graphique pour afficher de vraies images en couleur et une ergonomie bouleversée par le fonctionnement de la souris. De conception moderne, UEFI prévoit aussi l’arrivée des disques 4k et du nouveau système de partition GPT, idéal pour la prise en charge des nouveaux disques durs de 3 To. UEFI, c’est également plus de vitesse, le passage « BIOS » du boot étant réduit à une paire de secondes, avant d’attaquer le chargement de l’OS. UEFI est un progrès incontestable, mais ça n’est pas non plus une révolution. Bien que l’interface soit plus travaillée, les réglages proposés restent les mêmes et un novice n’y sera guère plus à l’aise que dans un BIOS traditionnel. Précisons d’ailleurs que cette interface graphique n’est qu’optionnelle ; par exemple, Intel vend depuis des années des cartes avec un BIOS UEFI, mais dont l’interface de réglage est similaire à un BIOS standard. A la sortie de la nouvelle plateforme Intel 1155 en début d’année, plusieurs constructeurs ont franchi le pas d’UEFI, notamment ASRock, Asus, ECS et MSI. Gigabyte propose encore des BIOS à l’ancienne. UEFI permet de profiter d’une interface graphique haute résolution en couleur, sans oublier le confort de la souris.

PC Update 47


dossier : questions micro

Les constructeurs apportent ils de vrais plus ? Les cartes qui marquent leurs générations sont surtout celles qui disposent d’un plus gros potentiel d’overclocking que les autres.

Le DES de Gigabyte, l’EPU d’Asus ou le DrMOS de MSI sont 3 technologies identiques visant à désactiver certaines phases d’alimentation lorsqu’elles ne servent pas.

que très pratiques, parfois même convaincantes, ces solutions n’ont rien d’exclusif, il y a des équivalents chez chaque concurrent ou presque. En effet, il s’agit souvent d’acteurs tiers qui innovent et qui revendent ensuite sous licence à ces marques. Ou mieux encore, il s’agit parfois d’une technologie déjà présente ailleurs sous un autre nom, mais qui est renommée pour donner l’illusion d’une innovation. Ainsi, les vraies innovations exclusives sont plus rares qu’il n’y paraît.

des différences 38 Existe-t-il de performances d’une carte mère à l’autre ? Question

Bien que les performances varient entre les différents modèles de cartes mères, elles sont tellement infinitésimales qu’il n’y a pas lieu de s’en soucier. Sauf si vous tenez vraiment à avoir 0,023 % de bande passante supplémentaire que votre voisin. En revanche, les capacités d’overclocking étaient bien différentes ces dernières années. Tout le monde se souvient de la DFI Lanparty NF4 Ultra-D au socket 939 ou de l’Asus Rampage Extreme au socket 775. Toutes deux ont marqué toute une génération d’overclockers par leur supériorité par rapport aux autres. Depuis le X58 d’Intel, les inégalités ont tendance à être gommées. Et pour cause, le savoir-faire des marques a de moins en moins d’intérêt puisque les processeurs ne demandent qu’à monter. Plus de limite de FSB ou de HTT, plus de limite de la mémoire, seules l’architecture et la dissipation thermique empêchent nos processeurs d’aller plus vite. Il y a, certes, quelques modèles privilégiés, mais ils sont rarement loin devant. Et avec Sandy Bridge, aucune de ces marques n’a réussi à tirer son épingle du jeu, alors que l’overclocking est bien difficile.

Question

39

Faut-il se fier aux fonctions d’overclocking automatique ?

Que ce soit dans le BIOS, sous Windows ou directement via un petit bouton, certains constructeurs proposent des modes d’overclocking automatique, permettant de gagner quelques centaines de mégahertz sans le moindre effort. Si cette solution est séduisante, elle ne sera jamais aussi précise qu’un overclocking à la main. En effet, il s’agit souvent d’un overclocking préenregistré pas très ambitieux, gage de stabilité pour le plus grand nombre. Aussi, les plages des tensions seront très larges pour

48 PC Update

Lucid Hydra, nVidia NF200 : à quoi servent ces puces additionnelles plutôt coûteuses ? Question

41

Bien que très rapide et plaisant, l’overclocking automatique n’est pas aussi fin et poussé que peut l’être un overclocking manuel.

couvrir un maximum de matériels, alors que les fréquences seront un peu timides pour éviter tout plantage. Par exemple, l’OC Genie de MSI est calibré pour 4,2 GHz à 1,4 V sur le P67, alors que cette tension nous a permis de stabiliser notre CPU 600 MHz plus haut. Petite exception tout de même, l’Auto-tuning d’Asus qui s’avère être un peu plus minutieux que les autres solutions. Le système procède exactement de la même façon que nous, c’est-àdire par paliers validés par une phase de stress test. Plus fine, cette méthode n’est pas parfaite et requiert beaucoup de temps (40 minutes pour arriver à 4 GHz sur un Core i7 2600K). Question

40

Ces deux puces que l’on retrouve parfois sur des cartes horriblement chères ont toutes deux une fonction de switch et de répartiteur de lignes PCI-Express. Reliées au contrôleur PCI-Express par 16 lignes, elles en contrôlent 32. La communication entre les cartes graphiques et le CPU ne se fait donc pas plus rapidement, mais elles peuvent s’échanger plus d’informations puisqu’elles partagent plus de lignes. En pratique, les performances sont rarement bien meilleures que sans ces puces, et toujours inférieures aux 32 vraies lignes des gros chipsets, comme le X58 ou le 890FX. C’est d’autant plus vrai qu’on rajoute de cartes graphiques.

Lestechnologiespropriétaires le sont-elles réellement ?

Economies d’énergie, support des disques de plus de 2,2 To, flashage sous Windows, son dit « haute définition », technologies de multiGPU, déblocage des cores sur les CPU AMD… il existe tout un tas de fonctions que chaque constructeur se vante d’avoir inventées. Bien

Contrairement au NF200 de nVidia, la puce Hydra à une vraie utilité : mixer des cartes graphiques pour les faire fonctionner ensemble. Dommage que la technologie ne soit toujours pas mature.


Elles ont une 2 e fonction, plus spécifique cette fois. La puce Lucid permet de mixer plusieurs cartes graphiques en s’affranchissant des limites inhérentes au CrossFire ou au GPU. Bien que deux cartes totalement différentes (par exemple une GeForce GTX260 et une Radeon HD5870) arrivent à communiquer, elles ne semblent pas parler la même langue vu les perfor-

RAM

Quelle quantité maximale de mémoire vive peut -on installer dans un PC ? Question

42

La quantité maximale de mémoire que l’on peut installer dépend de plusieurs critères, à la fois matériels et logiciels. Le premier est la capacité maximum du contrôleur de mémoire. Ce dernier, autrefois présent dans le chipset et désormais intégré au CPU, est capable de piloter plus ou moins de RAM. Les processeurs modernes peuvent gérer jusqu’à 16 Go (Core i3/i5/i7-800/ i7-2000, Athlon II, Phenom II) et 24 Go (Core i7-900) ; autrement dit, les contrôleurs de mémoire modernes gèrent 8 Go chacun, il y en a deux dans la majorité des CPU et trois dans le Core i7-900, ce qui nous amène à comprendre le fonctionnement et l’intérêt du dual/triple channel. Depuis des années, afin de maximiser les performances mémoire, deux contrôleurs de mémoire fonctionnent de concert, c’est le dual channel. Simulant un bus mémoire de 128 bits (2 x 64 bits), il offre l’avantage de ne pas l’imposer (il reste possible de n’installer qu’une seule barrette, mode monochannel) et c’est plus simple à concevoir côté pistes de cartes mères. Les gains de performances sont très sensibles en bande passante pure, mais en pratique, nous constatons un mieux de 1 à 5 % suivant les applications. Intel a poussé le concept jusqu’au trichannel avec les Core i7-900, pour des gains quasiment La quantité maximum de RAM dépend avant tout du contrôleur de mémoire. Le nombre de slot de la carte mère conditionne le total également.

mances à peine supérieures à celles d’une seule carte ou les bugs d’affichage fréquents. Chez nVidia, le NF200 n’a aucune fonction particulière, mais il est néanmoins absolument nécessaire pour le support du 4-way SLI, c’est-à-dire le SLI avec quatre cartes graphiques. La limitation est ici logicielle et totalement injustifiée, nVidia en profite juste pour bloquer artificiellement

son SLI et ainsi forcer les constructeurs de cartes mères et les utilisateurs à employer cette puce, dont ils pourraient tout à fait se passer. Notons que le CrossFire X à quatre cartes est, lui, tout à fait possible sans puce de cet acabit. L’une comme l’autre n’ont donc aucun intérêt particulier, bien que le NF200 soit un mal nécessaire pour les furieux du SLI.

nuls dans la majorité des cas vis-à-vis du dual channel. Bien que ça n’ait pas été conçu pour ça, le dual et le trichannel ont permis d’augmenter la capacité maximum de RAM, sans revoir le design des contrôleurs de mémoire. Depuis que le dual channel existe, les fabricants de mémoire vendent des « kits » de deux barrettes associées.

des cartes mères avec de la mémoire Rambus et un bus de 128 bits, il fallait alors installer les barrettes deux par deux pour que ça fonctionne (2 x 64 bits). Heureusement, il n’existe quasiment plus de pièges de ce genre, mais le plus prudent consiste à toujours vérifier l’implantation de la RAM en lisant la notice de la carte mère.

Question

43

Vaut-il mieux privilégier des sticks de 1, 2 ou 4 Go ?

D’un point de vue des performances, les barrettes haute densité ne sont pas plus rapides que les autres, mieux vaut dans ce cas favoriser la configuration optimale du contrôleur (par deux ou par trois, selon que l’on parle de dual ou trichannel). Néanmoins, gardez l’upgrade en tête ! Sur une carte mère microATX qui n’aurait que deux ports, mieux vaut se contenter d’une seule barrette de 4 Go pour pouvoir upgrader plutôt que 2 x 2 Go, vu le peu d’écart de performances induit par la perte du dual channel. Quant aux cartes avec de nombreux slots, gardez en tête qu’il est toujours plus facile de stabiliser une machine avec peu de barrettes, surtout en overclockant. Sur un PC Core i7-900 avec six slots où l’on souhaite installer 12 Go de RAM, il vaut mieux opter pour 3 x 4 Go que 6 x 2 Go. A ce propos, précisons que le contrôleur mémoire impose des contraintes plus nombreuses qu’une quantité maximale. C’est pourquoi il n’est pas toujours possible de remplir tous les slots comme bon nous semble. Prenons l’exemple de la plateforme 1155. Le double contrôleur de mémoire pilote jusqu’à 2 x 8 Go répartis sur deux banques. Ça signifie qu’en mode optimal, il y a deux banques de 8 Go (2 x 4 Go) par contrôleur, c’està-dire au maximum 16 Go (4 x 4 Go). Si vous décidez d’installer des barrettes de 8 Go, il n’en exploitera que la moitié. Si un constructeur de cartes mères s’amuse à doubler les slots pour passer de 4 à 8, vous ne pourrez pas installer des modules de plus de 2 Go par slot, puisque les banques sont divisées par deux. Autrefois, des constructeurs ont produit

Question

44

Quelleestlaquantitémaximale exploitée par les OS ?

Par manque d’adresses disponibles, les OS 32 bits ont une limite à 3,25 Go de mémoire. Si ça n’était pas encore un problème du temps de Windows 2000, c’est aujourd’hui une bride puisque la majorité des PC neufs sont vendus avec 4 Go. Il n’y a pas d’astuces pour contourner ce problème, la seule solution réside dans l’adressage 64 bits qui porte la limite maximale de mémoire adressable à 16 hexabytes ! En pratique, les OS ont des contraintes plus serrées, mais il y a de quoi voir venir. Par exemple, Windows 7 connaît une limite à 192 Go (sauf Starter 2 Go et Home Basic 8 Go), mais avec quelques contraintes, comme un max de fichiers en cache (Paged pool) de 128 Go ou max 4 Go par application 32 bits (max 8 To pour les applications 64 bits, d’où l’intérêt de passer au 64 bits pour des logiciels gourmands de retouche photo, d’imagerie de synthèse ou de base de données). Question

45

Quelle est la capacité idéale ?

La réponse dépend de votre usage du PC. Le minimum pour qu’un PC Windows 7 tourne bien sur des usages légers de bureautique et d’Internet est 2 Go. Mais vu les tarifs pratiqués et le confort gagné, nous recommandons 4 Go pour la majorité des personnes. Pour 50 € environ, c’est une valeur idéale qui permet de lancer plusieurs logiciels en même temps, de multiplier les onglets dans le navigateur et de faire tourner n’importe quel jeu sans avoir à libérer de la RAM au préalable. Encore confortables il y a un ou deux ans, les 4 Go seront bientôt le minimum car les gros jeux ne tirent désormais pas loin de 2 Go, sans oublier qu’un Google Chrome bien chargé peut aisément dépasser le gigaoctet. Ajoutons à ça un Photoshop non fermé et quelques microap-

PC Update 49


dossier : questions micro

4, 8 et pourquoi pas 12 Go ? La mémoire est si peu chère ces temps-ci, il faut se faire plaisir !

plications par-ci par-là et les 4 Go sont saturés. Apparus pour le trichannel des Core i7-900, les kits 6 Go (3 x 2 Go) sont intéressants. A vrai dire, bien que ça ne soit pas « logique » d’un point de vue dual channel, n’hésitez pas à les installer sur une plateforme AM3/1155/1156 pour bénéficier des 2 Go de plus, mais le prix des kits 8 Go (2 x 4 Go) est en chute libre depuis peu, en faisant le standard de demain. Au-delà de 8 Go, il n’y a aucun intérêt pour M. tout le monde. Seuls les graphistes qui manipulent de nombreuses et grosses photos ou de très grosses scènes 3D en tirent profit, au point qu’ils peuvent saturer plusieurs dizaines de gigaoctets !

Comment choisir sa RAM ? DDR3-1333, DDR3 à 667 MHz, PC10600, quelles différences ? Qu’apporte la DDR3 par rapport à la DDR2 ? Est-ce utile de changer ? La mémoire rapide a-t-elle de l’intérêt ? Jusqu’à quelle fréquence ? Peut-on faire fonctionner deux standards de DDR3 ensemble (exemple 1066 et 1600) ? Question

46

cartes mères coûteuses, dur de se décider à franchir le pas. Si à l’époque, ce n’était guère utile, les nouvelles architectures ont des gros besoins en bande passante, justifiant de plus en plus la DDR3. En outre, tous les nouveaux chipsets depuis 2 ans utilisent la DDR3 et le prix de celle-ci est désormais inférieur à celui de la DDR2. Il n’y a donc pas de raisons de se poser la moindre question. Après avoir isolé la quantité de mémoire nécessaire, encore faut-il choisir un modèle. Une dizaine de marques, chacune ayant plusieurs séries au catalogue, toutes déclinées en différentes vitesses. Mais ces vitesses sont exprimables de trois façons différentes. La plus logique mais néanmoins la moins utilisée correspond à la cadence des puces. La seconde est une sorte de notation par rapport à la SDR. Puisque la DDR a doublé l’envoi des données, de la DDR-1600 se retrouve aussi rapide que de la SDR à 1 600 MHz. Enfin, la dernière méthode consiste à exprimer la bande passante en Go/s, mais désigne cette fois un module complet de mémoire et ne peut pas être utilisée pour qualifier des puces. Aussi, de la DDR3 cadencée à 800 MHz, de la DDR3-1600 et de la PC3-12800 sont, en fait, le même type de DDR3.

Mais bien que la bande passante augmente de façon proportionnelle, le gain pratique reste relativement faible avec de la mémoire rapide et il ne justifie pas d’y consacrer des sommes folles. Par exemple, G.Skill propose actuellement des kits de 4 Go DDR3-1333 pour 45 €. Passer à la DDR3-2200 coûte 125 € toujours pour 4 Go. Si on peut admettre le passage à de la DDR3-1600 qui coûte quelques euros supplémentaires, il ne faut pas tomber dans l’excès et payer près de trois fois plus cher pour un léger mieux (jamais plus de 10 %). Tant que la bande passante ne représente pas une bride pour le système (et elle n’en est pas une actuellement, même en DDR3-1333), il n’y a pas lieu de s’en préoccuper hors overclocking. Quant aux timings, ils ont eux aussi une influence sur les performances, mais elle est moindre que celle de la fréquence. Il est donc préférable d’opter pour du 1600 C8 au lieu de 1600 C9, tant que le surcoût reste très limité. Entre de la DDR3-2133 et la DDR3-1600, les performances sont en hausse de 5 à 10% alors que le prix est 2 à 3 fois supérieur. Pas vraiment une bonne affaire.

Introduite mi 2007, la DDR3 augmente considérablement la bande passante de la DDR2. En 2008, la grande question du passage à la DDR3 se pose. Entre des tarifs trop élevés, un gain de performances très contenu et des

La fréquence max supportée par plateforme Avant de se lancer dans un overclocking tonitruant et d’acheter de la mémoire ultraperformante, encore faut-il avoir une idée de la fréquence que supportera votre plateforme. Commençons par AMD et les cartes AM3 qui s’arrêtent entre 900 et 950 MHz. Petite exception, les Thuban (Phenom II X6) permettent de dépasser le gigahertz si la chance est de votre côté, mais cela reste compliqué. Quant aux prochaines cartes AM3+ et Bulldozer prévues pour l’été, nous ne manquerons pas de vous tenir informé dès que nous aurons pu les tester. Chez Intel, la meilleure plateforme reste le P55. Celui-ci permet, en effet, de stabiliser la mémoire autour de 1 200 MHz (DDR3-2400), sans requérir un talent particulier. Néanmoins, cette fréquence ne pourra être atteinte qu’à partir de 200 MHz de BCLK. Le P67 qui lui succède est lui aussi très pro-

50 PC Update

pice à l’overclocking mémoire, le ratio DDR3-2133 n’ayant aucun mal à être stable sans le moindre réglage. Cependant, l’impossibilité de monter en BCLK (ou très peu) ne permet pas de dépasser 1 100 MHz (DDR3-2200). Quant au X58 qui accueille les Core i7 900, son overclocking mémoire dépend de la fréquence du contrôleur mémoire, les deux étant liés. Dans le cas des quad core, le contrôleur mémoire est cadencé à quatre fois la fréquence mémoire. Celui-ci ayant, en général, du mal à dépasser les 4 GHz, la mémoire plafonne à 1 GHz (DDR3-2000) dans le meilleur des cas. En revanche, l’arrivée des hexacores tels que le Core i7 970 a permis d’abaisser le ratio de synchronisation entre mémoire et contrôleur mémoire, de sorte que celui-ci peut fonctionner à 3 GHz pour une mémoire à 1 GHz. Dès lors, il est possible de stabiliser de la mémoire jusqu’à 1 200 MHz (DDR3-2400).


LinX est un excellent logiciel pour tester la stabilité du sous-système mémoire d’un PC.

Enfin, dans le cas où vous envisageriez une upgrade future, par exemple passer de 4 à 8 Go, il n’y a pas non plus de raisons de s’inquiéter si la vitesse de fonctionnement des deux kits diffère. Lorsque vous installerez le 2e kit, quel qu’il soit, le système se calera automatiquement sur le plus lent des deux. Ceci ne pose absolument aucun problème. Vous pourrez même paramétrer le BIOS pour augmenter la fréquence de la mémoire.

Pourquoi certains kits mémoire ont-ils du mal à fonctionner à la fréquence et aux timings pour lesquels ils sont vendus ? Comment régler le BIOS ? Question

47

Dans certaines configurations, il est impossible de faire tenir ses spécifications à un kit mémoire. Avant de remettre en cause sa fiabilité, il faut vérifier que la fréquence est supportée par la carte mère et le contrôleur mémoire. Par exemple, au début du X58, il était très rare de stabiliser de la RAM au-delà de la DDR3-1900, la faute à une architecture mémoire efficace mais inapte à la montée en fréquence. Si la fréquence n’est pas le réel problème, il arrive que la bande passante délivrée par une telle mémoire excède les capacités du contrôleur mémoire. Par exemple, avec les chipsets X38 ou X48, il était possible d’atteindre une fréquence de 1 GHz (DDR3-2000) mais uniquement avec des timings assez souples. Vouloir les serrer, par exemple 7-77-21, entraînait des plantages irrémédiables (on atteignait alors près de 14 Go/s de bande passante, la limite du chipset) et ceci sans que la mémoire soit défectueuse. Dans les deux cas, augmenter la tension du contrôleur mémoire (c’est-à-dire celle du northbridge sur les anciennes plateformes Intel) permet de repousser légèrement la limite. Enfin, dernière piste à explorer, ce sont les barrettes elles-mêmes. De rares kits sont certifiés très proches de leur limite réelle, nous avons par exemple testé des barrettes certi-

fiées DDR3-1600 7-8-7 1,7 V qui ne tenaient même pas DDR3-1610 à leur tension d’origine et qui n’étaient pas stables à 1,65 V. Dans ces conditions, la moindre baisse de tension ou une température un peu trop élevée peuvent causer des plantages aléatoires.

La quantité de RAM détectée par le BIOS/ Windows ne correspond pas à celle installée, que faire ? Question

48

Il arrive que la mémoire installée et indiquée par CPU-Z ne corresponde pas à celle que reporte Windows ou le BIOS lors du POST. Cela ne signifie pas qu’une partie de votre RAM est morte, auquel cas CPU-Z indiquerait la bonne quantité, ou pire, la carte mère pourrait refuser de booter. Il s’agit en

réalité d’un problème venant du contrôleur mémoire qui détecte mal votre mémoire. C’est particulièrement courant sur les plateformes X58 qui ont parfois du mal à détecter les trois canaux de RAM après overclocking, mais cela peut aussi arriver sur les autres plateformes. Si vous avez tenté d’overclocker la mémoire, baisser la mémoire petit à petit devrait permettre de retrouver un fonctionnement normal. Augmenter la tension du contrôleur mémoire est aussi bénéfique, notamment sur certaines cartes mères qui ont tendance à être très conservatrices à ce niveau. Si cela ne fonctionne pas et que vous avez déjà le dernier BIOS, il n’y a guère d’autres issues que d’enlever puis remettre la mémoire.

Astuce

Comment régler les timings de ma mémoire ? Les puces embarquées sur les barrettes de mémoire ont toutes un comportement différent. Pour en tirer le maximum, il faut donc utiliser les timings adaptés. Il n’y a aucune règle préétablie, l’expérimentation est le maître mot. Pour rappel, les quatre timings principaux sont, dans l’ordre, le CL, le tRCD, le tRP et le tRAS (ce dernier n’étant pas toujours mentionné). Les kits de ces derniers mois montrent une tendance très prononcée pour des tRCD élevés. Relâcher le tRCD (passer de 7 à 8 ou de 8 à 9) permettra donc d’augmenter considérablement la fréquence, de 50 à 100 MHz de gagnés.

Les cartes mères X58 posent souvent quelques problèmes de détection mémoire lorsqu’elles sont overclockées un peu trop fortement.

PC Update 51


dossier : questions micro

Cartes graphiques Critères d’achat Question

49

Comment choisir entre les cartes nVidia et AMD ?

Chez ATi, Stream est l’équivalent de CUDA, un peu moins répandu, tandis qu’Eyefinity regroupe un tas de choses visant à faciliter le multi-écran et le surround gaming. Notez que c’est aussi possible chez nVidia, bien qu’aucun nom ne soit donné, sans doute parce que la solution est un peu moins aboutie. A l’heure actuelle, sauf besoin très particulier, le choix d’un GPU pour jouer se fait donc majoritairement en fonction des résultats de nos benchs.

Qu’est-ce qu’une « unité de calcul », en quoi ce critère est-il pertinent ? Question

50

Eyefinity d’un côté, PhysX de l’autre. A part ça, les cartes des deux marques se valent souvent.

Les partisans des deux marques s’affrontent depuis des années sans vrai fond pour cette querelle. Actuellement, la qualité d’image est similaire, les deux marques alignent souvent leurs prix et quand certaines cartes ont notre préférence à un tarif donné, c’est seulement parce qu’elles sont un peu plus performantes que leurs concurrentes directes. Les deux marques ont toutefois quelques atouts à faire valoir, en dehors de l’affichage de pixels pur et dur. PhysX est supporté par quelques jeux et permet une gestion plus réaliste de la physique de certaines particules ou éléments de décor par exemple. CUDA est une façon de faire travailler votre carte graphique en dehors des jeux vidéo sur des calculs parallélisables, comme l’encodage ou le rendu 3D. Enfin, 3D Vision est le nom de la technologie nVidia pour afficher les jeux en relief grâce à la stéréoscopie. Nous y reviendrons un peu plus tard, mais l’équipement étant coûteux et contraignant, ça ne s’adresse pas non plus à n’importe qui.

52 PC Update

ressantes. Depuis 2007, les HD3870, HD4870 et HD5870 se sont succédé. Bien que des améliorations aient été apportées au fur et à mesure, la première comptait 400 unités de calcul, contre 800 et 1 600 pour les suivantes. Une puissance doublée à chaque génération pour des performances d’autant meilleures. En revanche, aller comparer les caractéristiques de deux cartes fondamentalement différentes, la HD6970 et la GTX570, n’a aucun intérêt puisqu’elles sont basées sur deux architectures distinctes. La carte AMD embarque, en effet, 1 536 unités de calcul, un bus mémoire de 256 bits et 32 ROP, alors que la carte nVidia utilise 480 unités, un bus de 320 bits et 48 ROP. Les deux ont pourtant des performances très similaires. Question

51

Les unités de calcul (SIMD Engines) occupent une grande partie du die. Leur efficacité au sein de Cayman, le GPU de la HD6970 n’est cependant pas comparable à celle du GF110 des GTX580.

Une carte graphique est souvent définie par son nombre d’unités de calcul (Stream processors ou CUDA cores), son bus mémoire, sa fréquence, etc. Ces critères sont uniquement utilisés pour comparer les cartes issues d’un même GPU, et éventuellement pour comparer des cartes de différentes générations, mais dont le fonctionnement n’a pas été profondément modifié. Par exemple, une HD6950 embarque 1 408 unités de calcul, alors que la HD6970 en compte 1 536. Les deux cartes ayant un GPU architecturé de la même manière, on peut donc deviner que si c’est la seule modification apportée, la puissance de calcul (qui ne reflète pas directement les performances dans les jeux vidéo) sera en baisse de 9 % sur la HD6950. Les fréquences ont été revues de sorte que l’écart est un peu plus important, mais là encore, il est possible d’extrapoler. Les trois générations précédentes sont encore plus inté-

Comment faire correspondre besoins et modèle ?

Hormis la puissance de la carte graphique, de nombreux critères secondaires rentrent en ligne de compte comme la marque, le silence, l’API supportée, la mémoire ou la gestion des écrans. En général, la marque de la carte graphique n’a pas une importance particulière. Seule la garantie pourra éventuellement peser dans la balance, mais elles sont toutes garanties deux ans au minimum. Le service après-vente est très fluctuant et dur à apprécier, mais il n’y en a aucun qui soit assez mauvais pour dissuader d’acheter une marque en particulier. En ce qui concerne le produit, s’il s’agit d’une carte de référence, même overclockée, elle sera identique à celles des autres marques. Dans un premier temps, il s’agit de cartes produites par nVidia ou ATi, livrées aux constructeurs qui se contentent d’apposer un sticker au goût douteux. Dans un second temps, les constructeurs qui ont des chaînes de production vont produire eux-mêmes les cartes, leur permettant d’utiliser leur propre PCB et de faire quelques économies d’échelle. La carte reste cependant identique à la version originale, du moins en qualité de fabrication. Enfin, les modèles modifiés arrivent : PCB revu, ventirad maison, overclocking souvent plus conséquent. Là encore, la marque n’a que peu d’importance, toutes réussissant à produire des cartes d’un très bon niveau lorsqu’elles s’en donnent la peine. Impossible de dégager une tendance, hélas, il faudra s’en remettre aux comparatifs réguliers que nous publions.


Le support de DirectX 11 ou d’une version plus ancienne a surtout une importance qualitative. L’apport des dernières technologies permet d’améliorer l’image, grâce à la tessellation, ou une meilleure gestion des ombres et de la physique. En revanche, à qualité équivalente, les jeux seront rarement plus fluides. Les titres récents ne sont même pas tous en DirectX 11, Crysis 2 étant un excellent exemple d’une superproduction qui sort en DirectX 9 uniquement pour le moment. S’il est dommage de se passer des effets graphiques de DirectX 11, c’est envisageable pour les petits budgets, il vaut mieux jouer en haute qualité DirectX 10 ou 9 plutôt que de ramer en DirectX 11. Mais les cartes DirectX 10 remontent à mi 2009, les Radeon HD5000 étant sorties à la rentrée 2009. Dès lors, les cartes milieu de gamme DirectX 11, comme les HD5850 ou GTX460, se retrouvent à peine plus chères en occasion que les anciens tops, comme les HD4890 ou GTX285. Selon la résolution et la qualité d’image, la quantité de mémoire a aussi son rôle à jouer. Les joueurs les moins exigeants se contenteront de 512 Mo, avec des résolutions inférieures ou égales à 1 280 x 1 024. 1 Go suffira jusqu’à 1 920 x 1 080. En revanche, au-delà, il faudra penser à voir plus large. Le 1,5 Go de la GTX580 se révèle parfois juste pour des très grandes résolutions. Les 2 Go de la HD6970 sont tout indiqués pour jouer en surround gaming (triécran). Bien que son GPU soit moins puissant, son surplus de mémoire est alors primordial. Attention, cependant, si les 2 Go de la HD6970 suffisent pour trois écrans car celle-ci sait les gérer, un SLI de GTX560 Ti, totalisant donc 2 Go de mémoire, ne se comportera pas du tout pareil. En effet, bien que la puissance de calcul soit largement supérieure, les données doivent être copiées dans la mémoire des deux GPU. En pratique, seul 1 Go sera donc utilisé, bridant les performances. Dans ce contexte, la solution AMD est préférable, quitte à rajouter une 2e HD6970 pour les plus fortunés. Il faudra aussi surveiller la fréquence et le type de la mémoire. Si les arnaques sont quasiment absentes du haut de gamme, le segment des cartes à moins de 100 € en est souvent rempli. Il n’est pas rare de voir une carte fonctionnant avec de la GDDR3, avec une fréquence importante, en lieu et place de la GDDR5 de rigueur. Mais la GDDR5 est deux fois plus rapide que la GDDR3, dur de compenser cela par une augmentation de la fréquence de 10 à 20 %.

Cette GTX560 Ti eVGA étant identique au modèle de référence, seul l’autocollant et le bundle diffèrent. Acheter n’importe quelle autre marque vous donnera droit à la même carte.

Technologies et architectures Question

52

Comment déterminer le GPU dont j’ai besoin ?

La résolution de l’écran et l’exigence de qualité sont les deux critères qui conditionnent le choix d’un GPU. La résolution détermine le nombre de pixels que la carte graphique devra calculer pour chaque image. Plus ce nombre de pixels est élevé, plus la carte graphique devra être puissante. En outre, la qualité des textures, les effets de posttraitement ou les filtres nécessitent des étapes supplémentaires dans le calcul de l’image, ce niveau de qualité aura donc une influence sur le framerate affiché par la carte graphique. Sur des petites résolutions comme le 1 280 x 1 024, la HD5750 à 100 € fait l’affaire. Pour quelques euros de plus, la GTS450 permet une qualité d’affichage supérieure. Elle n’est, en revanche, pas adaptée aux résolutions supérieures, comme le 1 680 x 1 050 des écrans 22’’. Dans ce cas, mieux vaut opter pour une HD5770 (environ 120 €) ou une GTX460 768 Mo en promotion, un peu

plus chère mais un peu plus puissante. La GTX460 1 Go se démarque nettement, elle fait jeu égal avec la HD6850 1 Go et toutes deux coûtent 170 €. L’une et l’autre conviendront pour jouer en full HD (1 920 x 1 080) en qualité moyenne. Pour pouvoir pousser toutes les options au maximum, il faudra opter pour un modèle un peu plus costaud, les HD6950 Pour jouer en full HD, la HD6870 à 200 € est une excellente solution.

PC Update 53


dossier : questions micro

1 Go et GTX560 Ti sont alors tout indiquées, aux environs de 230 €. Ces cartes permettent d’affronter tous les titres récents sur un écran 24’’. En revanche, les amateurs d’écrans 30’’ en 2 560 x 1 600 se tourneront vers une GTX570 ou HD6970 (toutes deux vendues autour de 340 €). Encore plus puissante, mais vendue à près de 500 €, la GTX580 n’en vaut pas la peine, sauf à vouloir se vanter d’avoir le plus gros GPU du moment. En outre, plus la résolution augmentera, plus les 2 Go de la HD6970 tireront leur épingle du jeu.

Est-il possible d’utiliser simultanément un IGP et une carte graphique dédiée ? Question

53

Les possesseurs de cartes mères avec IGP et d’une carte graphique seront ravis d’apprendre qu’il est possible de coupler les deux puces, au moins pour de l’affichage 2D, et ce quelle que soit la marque de la carte graphique. La marche à suivre dépend de la carte mère. Les derniers chipsets H67 d’Intel sont simples d’emploi, branchez simplement le 3e écran sur une des sorties de

l’IGP et installez les pilotes Intel et ceux de la carte graphique. Sur les chipsets AMD, il faudra en revanche activer l’option Surroundview dans le BIOS. Bien qu’il soit possible d’utiliser une carte graphique nVidia, préférez une carte AMD pour éviter les éventuels conflits de pilotes. En revanche, avec les anciens chipsets Intel, notamment les H55/ H57 couplés à un Clarkdale (Pentium G 6950, Core i3 500, Core i5 600), ceci n’est pas possible, il faudra choisir entre l’IGP ou la carte graphique.

Cumuler IGP et GPU pour la gestion des écrans est possibles sur les plateformes AMD et Intel socket 1155.

Multi-écran, mode d’emploi

Les HD6970 Direct Cu II peuvent gérer jusqu’à 6 écrans grâce à leur 4 sorties DisplayPort et les 2 DVI.

Combien d’écrans peuton brancher sur une carte graphique ? Question

54

Depuis déjà des années, les cartes graphiques disposent de deux sorties pouvant chacune gérer un écran. C’est encore le cas aujourd’hui. Que les rares possesseurs d’un écran dont la résolution excède 1 920 x 1 200 se méfient : bien que de très nombreuses cartes embarquent des sorties DVI, les deux ne sont pas toujours Dual Link, ne permettant pas d’exploiter la résolution de leur écran. Bien que certaines cartes proposent 3 ou 4 sorties vidéos, seules deux d’entre elles peuvent être utilisées simultanément. Pour utiliser plus de deux écrans, il faut souvent

54 PC Update

quoi la carte est limitée à deux écrans. Bien peu de moniteurs disposant d’une entrée de ce type, il faut alors utiliser un convertisseur. Si les adaptateurs passifs sont peu chers (environ 30 €), ils sont, en revanche, limités à une résolution de 1 920 x 1 200. Au-delà, il faudra utiliser un adaptateur actif qui coûte une centaine d’euros. Chez nVidia, le multi-écran est pensé pour le jeu. Plus souple puisqu’il se contente des prises DVI, il est aussi plus coûteux. Il faut, en effet, utiliser deux GPU en SLI afin de gérer trois écrans. Si vous n’avez que faire de la puissance de calcul, se rabattre vers une HD5000 ou HD6000 d’entrée de gamme sera donc la meilleure solution, plus propre et moins chère que d’utiliser deux cartes graphiques.

brancher une deuxième carte graphique, qui gérera à son tour deux nouveaux écrans, ou utiliser une Radeon HD5000 ou HD600.

Comment faire du triécran ? Un adaptateur DP actif et cher est-il toujours nécessaire ? Question

55

Pour faire du triécran, il est possible de recourir à deux cartes graphiques, chacune pouvant gérer deux écrans. Mais depuis un an et demi et l’arrivée des Radeon HD5000, il est possible de gérer trois écrans avec une seule carte. Les nouvelles HD6000 peuvent même gérer quatre écrans. Il faut cependant utiliser une à deux sorties DisplayPort, sans

Pour jouer en surround avec une carte AMD, un adaptateur DisplayPort passif suffit si la résolution de vos écrans est inférieure à 1920x1200.


Gagner des fps ? PCI-Express, mais la bande passante sera réduite, grevant les performances entre 5 et 80 %. S’il est encore envisageable de jouer avec 8 lignes PCI-E 2.0 où le framerate est réduit de quelques pourcents, passer à 4 lignes se révèle 25 à 30 % moins rapide sur des cartes milieu de gamme et il faut alors se contenter de petites résolutions (1 280 x 1 024 ou moins) et sans filtres.

Si votre carte mère ne supporte que le PCIExpress 1.1, mieux vaut ne pas brancher votre carte graphique sur autre chose qu’un port 16x. En effet, cette norme plus ancienne offre une bande passante réduite de moitié, de sorte que 16 lignes PCI-Express 1.1 proposent la même bande passante que 8 lignes PCIExpress 2.0, soit la limite minimale pour que les performances restent correctes.

En plus d’améliorer les performances, les drivers peuvent apporter des fonctionnalités nouvelles comme les Forceware 256 en 2010 qui ont amené le support de trois écrans en SLI, même sur de vieilles GTX200. Question

56

Mettre à jour les drivers est-il vraiment utile ?

Bien que nous ne soyons pas un partisan de la mise à jour intempestive (qui a dit « c’était mieux avant » ?), les drivers graphiques font partie des exceptions. Même si vous avez une carte monoGPU relativement mature, une GTX580 par exemple, les nouveaux drivers peuvent apporter de meilleures performances dans les derniers jeux. A priori, si vous jouez à des titres anciens, inutile de s’embêter, mais si votre jeu est postérieur à la date de sortie de vos pilotes, les mettre à jour permettra souvent de bénéficier de légères optimisations, qui peuvent se traduire par un joli gain de FPS. C’est d’autant plus vrai lorsque la configuration compte plusieurs GPU. Si les performances d’un seul GPU sont assez figées, celles des systèmes SLI ou CrossFire sont très dépendantes des mises à jour présentes dans les drivers, qui permettent de modifier l’attribution des calculs selon les jeux. Le gain de performances peut donc atteindre 80 %, dans le cas où un seul GPU travaille et que les nouveaux drivers apportent le support du 2e GPU. En outre, en ce qui concerne les amateurs de HTPC, des drivers récents semblent jouer en faveur de la qualité d’image. Il faut avoir un oeil sacrément vif pour se rendre compte, en pratique, des améliorations que seuls les benchmarks semblent en mesure de justifier. Mais pourquoi se contenter d’une image a priori moins bonne quand une simple mise à jour de pilotes suffit à l’améliorer ?

Peut-on utiliser une carte 57 graphique (PCI-E 16x) sur un port câblé en 4x ou 8x ? Question

L’immense majorité des cartes graphiques est vendue au format PCI-Express 16x. Il est toutefois possible de les brancher sur des ports qui ne sont pas câblés avec 16 lignes

Il est tout à fait possible de brancher une carte graphique sur des ports PCI-Express qui ne sont pas cablés en 16X sans risque pour le matériel. Ce port 4X « ouvert » permet notamment d’enficher des cartes d’extensions au format PCI-Express 8X ou 16X.

Surround gaming, vision en relief, SLI et Crossfire

3 écrans répartis sur 2 cartes graphiques permettent-ils de jouer en surround ? Question

Pour jouer en surround (sur 3 écrans), qui d’AMD ou nVidia est le plus performant ? Le plus pratique ? Le plus économique ? Question

58

59

Oui. C’est optionnel chez ATi (les Radeon HD5000 et 6000 gèrent le jeu en triécran avec une seule carte), indispensable chez nVidia (deux écrans au maximum par carte). La solution ATi apparaît bien plus abordable, mais les résolutions utilisées en triécran (5 040 x 1 050 sur de vieux 22», 5 760 x 1 080 ou 5 760 x 1 200 sur des 22/23/24») réclament la puissance d’un CrossFire/SLI.

Il n’existe pas de différences notables de performances entre le jeu surround chez AMD ou nVidia. Comme c’est le cas en monoécran, certains titres fonctionnent plus vite chez l’un, d’autres chez l’autre. Pour les adeptes de vision en relief, précisons que seul nVidia

PC Update 55


dossier : questions micro

propose le jeu à la fois en surround et en stéréoscopie… à condition de se payer deux GPU très haut de gamme. La solution AMD est plus pratique. Non seulement elle n’impose pas deux cartes (bien qu’il faille penser à acheter un adaptateur DP pour brancher le troisième écran), mais surtout les pilotes sont plus stables. Chez l’un comme chez l’autre, il est possible de brancher des écrans supplémentaires, c’est pratique pour continuer de lire MSN ou voir la TV pendant le jeu sur le triécran… à condition d’avoir un bureau sacrément grand et d’aimer bouger la tête. Financièrement, que faut-il privilégier ? Certes, il est possible de jouer sur un triécran avec une seule ATi, mais il faut ajouter à son tarif l’adaptateur DP à 30 € (voire un actif à 75 € pour dépasser 1 920 x 1 080, 75 €). D’autre part, le jeu en surround réclame beaucoup de puissance et une importante quantité de mémoire vidéo. En 5 970 x 1 080, la majorité des titres avec de bons réglages graphiques occupent entre 1 et 1,5 Go de RAM, les plus exigeants (ou le jeu sur 3 x 27» 2 560 x 1 440) en demandent encore plus. Pour le coup, les cartes graphiques avec 1,5 ou 2 Go de RAM ne sont pas dénuées d’intérêt. C’est AMD qui remporte la palme de l’économie puisque la solution la moins coûteuse consiste à acheter une Radeon HD6950 2 Go, nous en trouvons à 250 €. Avec l’adaptateur requis pour le 3e écran, nous restons sous les 300 €. nVidia est sensiblement plus cher car la solution la moins onéreuse consiste à cumuler deux GeForce 460 2 Go (ne pas se faire piéger avec les cartes 1,5 Go qui sont bridées) à 210 € pièce, soit un total de 420 €. C’est également plus bruyant, mais les performances GPU d’un SLI de 460 sont néanmoins supérieures (dépassant même une HD6970, au niveau d’une GTX580). Dans les deux cas, nous n’avons pas cité les configurations minimums pour afficher sur trois écrans (une petite Radeon HD5670 avec trois sorties en serait capable, ainsi que deux vieilles GeForce GTX250), mais les solutions viables et performantes que nous recommandons comme le minimum pour vraiment profiter du jeu en surround avec les titres modernes.

2, 3, 4 cartes, les gains de performances sont-ils toujours au rendez-vous ? Question

60

Le SLI comme le CrossFire permettent de coupler jusqu’à quatre GPU afin de bénéficier de performances en hausse. Néanmoins, le rendement des cartes supplémentaires est loin d’être optimal. Alors qu’on pourrait penser logiquement que quatre GTX580 sont quatre fois plus puissantes qu’une seule, un tel système se révèle en pratique entre deux et trois fois plus rapide. Il n’est, en effet, pas

56 PC Update

Au dela de 2 GPU, les performances sont trop irrégulières pour que le système soit pertinent.

possible de paralléliser tous les calculs et de supprimer toutes les dépendances entre les images. En outre, le bon fonctionnement de ces systèmes est très lié aux drivers. Or il est logique qu’AMD comme nVidia s’attardent plus sur les systèmes monoGPU, qui représentent une immense majorité des PC, plutôt que sur ceux embarquant quatre GPU, largement minoritaires. Aussi, les 3e et 4e GPU ont, en général, bien peu d’intérêt. En revanche, le biGPU est plutôt bien supporté avec un rendement proche des 80 % en moyenne. De si bons résultats sont notamment permis par les cartes biGPU, comme les HD6990 et GTX590 qui obligent les deux constructeurs à peaufiner leurs pilotes pour justifier de telles solutions. Encore faut-il que les drivers sortent rapidement. En général, les nouveaux jeux ne supportent le multiGPU qu’avec de nouveaux drivers qui mettent parfois un bon mois à arriver. Autrement dit, un mois après la sortie du jeu, les performances seront presque deux fois inférieures à ce qu’elles devraient être avec un biGPU.

ouu à la plus petite quantité de mémoire d’un binôme de GPU, il pourrait donc tout autant s’adapter au GPU le moins puissant. Le CrossFire en fait la démonstration. Il est, par exemple, possible de coupler une HD6970 et une HD6950 sans le moindre problème. Les GPU doivent simplement être de la même génération et, idéalement, pas trop éloignés en termes de puissance. Il y a fort à parier que nVidia ne souhaite pas se compliquer la tâche avec des systèmes hybrides et rares, alors qu’AMD tente la politique contraire en ouvrant sa technologie au maximum.

Pont SLI/CrossFire est-il toujours nécessaire ? Où en acheter ? Question

62

Les ponts SLI et CrossFire permettent de faire transiter les informations entre les GPU et sont très souvent requis pour pouvoir activer le rendu à plusieurs GPU. Bien qu’un mode

Peut-on faire du SLI avec deux cartes totalement différentes ? Qu’en est-il du CrossFire ? Question

61

Le SLI peut être activé lorsque deux cartes graphiques similaires sont présentes dans le système. Si les fréquences ou la quantité de mémoire sont censées pouvoir différer, tout est compliqué. Par exemple, seules deux GTX460 1 Go peuvent être associées en SLI. Une GTX460 768 Mo (dont seul le bus mémoire change) et une GTX460 SE (qui compte moins d’unités de calcul) ne pourront pas fonctionner avec une GTX460 1 Go. Pourtant, leurs GPU sont tous des GF104 plus ou moins castrés. Le SLI étant capable de s’adapter au plus lent

Sans pont, pas de Crossfire ni de SLI, l’option ne sera même pas disponible dans les drivers, exception faite de quelques cartes peu puissantes.


d’échange software, qui passe par le bus PCIExpress en se dispensant des ponts, existe dans les drivers, celui-ci est moins performant. Il est, en outre, inadapté aux systèmes hautes performances et il est donc limité aux cartes d’entrée de gamme qui peuvent alors se passer d’un connecteur CrossFire ou SLI. Historiquement, le pont CrossFire est livré avec la carte graphique, alors que le pont SLI est fourni dans le bundle de la carte mère. Ça n’a pas vraiment changé depuis, mais si vous avez perdu le vôtre, la seule façon de s’en procurer un sera d’écumer les magasins. Vendu 7 à 15 €, c’est un prix inacceptable compte tenu de la simplicité du produit, mais il n’y a guère d’autres solutions. Question

63

Quels matériels pour jouer en 3D stéréoscopique ?

nVidia est leader depuis deux ans sur le marché du jeu en 3D stéréoscopique, AMD ne vend toujours pas de technologie concurrente. Pour en profiter, au-delà des jeux compatibles (la liste est publiée sur le site de nVidia), il faut posséder des lunettes 3D

En sus du kit lunettes + emetteur à 150 €, nVidia vends les lunettes seules à 110 €, pour profiter de la 3D à plusieurs.

Vision (150 € le kit lunettes plus émetteur) et un écran 120 Hz (à partir de 280 €, la référence reste depuis des mois l’Acer GD245HQ). Il n’y a rien d’autre de spécifique, si ce n’est d’utiliser un GPU nVidia pour que les pilotes 3D Vision soient fonctionnels et pas le plus petit qui soit. Générant deux images (une pour chaque oeil), le jeu en relief est particu-

lièrement exigeant. Un ancien top comme la GTX285 ou des milieux de gamme modernes du type GTX460 et 560Ti sont adaptés. Mais que dire du jeu en relief et en surround simultanés ; voilà au moins quelque chose qui donne finalement du sens à l’achat d’un SLI de GTX580 (950 €) et autres monstres comme la GTX590 (700 €).

Stockage

Optimisations générales Le SATA 6 Gb/s est-il réellement nécessaire ? Peuton brancher un périphérique SATA 6 Gb/s sur un port SATA-2 et inversement ? Question

64

Soyons clair : pour un disque dur, le SATA 6 Gb/s n’apporte rien, il n’est utile que

Premier SSD a tirer profit du SATA 6Gb/s, mais aussi premier périphérique de stockage en général, le C300 de Crucial a été lancé il y a déjà plus d’un an. La concurrence arrive seulement maintenant avec des SSD équipés de cette même interface.

dans le cas des SSD récents ! Néanmoins, il n’y a aucun risque pour le matériel. Les HDD les plus rapides, comme les derniers 3 To 7 200 TPM, flirtent avec les 150 Mo/s dans les cas les plus favorables. Seul le cache arrive à tirer parti de cette nouvelle interface, sans qu’aucun gain pratique ne soit constaté. En revanche, les derniers SSD qui peuvent atteindre 500 Mo/s ont tout intérêt à être branchés en SATA 6 Gb/s. S’ils sont branchés en SATA-2, ils seront limités entre 250 et 280 Mo/s, les débits maximums autorisés par cette interface, et les performances globales s’en ressentiront. Si vous n’avez aucun port SATA 6 Gb/s, rien ne vous empêche de les brancher quand même. C’est dommage mais ça n’altérera en rien le fonctionnement de l’unité ou du contrôleur de stockage. De même, si vous branchez un périphérique SATA-2 sur des ports SATA 6 Gb/s, c’est même un cas de figure obligatoire dans le cas des cartes mères AMD800

Astuce Peut-on installer Windows XP sur un disque dur de plus de 2,15 To ? Oui, mais ce dernier ne gérant que le MBR, les partitions feront au maximum 2,15 To (au moins deux partitions sur un disque de 3 To). Les disques modernes (ou les SSD) utilisant en interne des secteurs de 4 ko, non pris en charge par l’installateur de Windows XP. Pour ne pas réduire les performances (qu’un secteur de 512 octets de Windows XP ne se retrouve pas à cheval sur deux secteurs de 4 ko du disque dur), il convient de formater son nouveau disque avec des outils spécialisés qui ne créent que des partitions alignées. Les constructeurs de disques en proposent gratuitement, comme WD Align chez Western Digital.

Question

65

Qu’apportent les drivers de stockage ?

Les drivers de stockage, autrement dit les drivers de la puce gérant vos disques durs ou SSD, ne sont pas aussi vitaux que ceux de la carte graphique, mais ils sont tout de même utiles. Tout d’abord, ils apportent souvent un léger mieux aux performances globales du stoc-

PC Update 57


dossier : questions micro

Le mode AHCI est à meme d’exploiter les spécificité de la norme SATA, comme le NCQ.

kage. On excède rarement les 10 %, mais c’est toujours bon à prendre. En outre, ils permettent de bénéficier des derniers raffinements du contrôleur de stockage. Laisser passer la commande TRIM, autoriser les modes d’économie d’énergie, le monitoring et le diagnostic des périphériques ou encore la gestion du RAID depuis Windows sont autant d’avantages qu’ils peuvent apporter. Question

66

Pourquoi l’AHCI est-il si important ?

AHCI signifie Advanced Host Controller Interface. Derrière ce nom barbare, se cache le mode de fonctionnement normal d’un contrôleur de stockage SATA (parfois baptisé Native). Sur demande (réglage dans le BIOS), les contrôleurs SATA simulent également leurs aînés, c’est le mode IDE (ou Legacy). Ce second est utilisé pour installer de vieux systèmes d’exploitation non conçus pour le SATA. Bien que ça ne soit pas le jour et la nuit en termes de débits et de temps d’accès, il est recommandé d’être en AHCI dès que possible pour maximiser les performances. Seul le mode AHCI gère la priorité des tâches (NCQ, Native Command Queuing), le retrait des disques à chaud (Hot-swap) ou même l’entretien des SSD (TRIM). De nombreux BIOS règlent par défaut le contrôleur de stockage en IDE, même en 2011. C’est dommage, car du coup, beaucoup d’OS sont installés en mode IDE. C’était une facilité du temps de Windows XP car, ce dernier n’intégrant pas de drivers AHCI, le disque dur n’était pas reconnu sauf à charger un pilote sur disquette (et uniquement sur disquette). Mais depuis 2007, Vista puis Seven ont repris le flambeau avec une gestion native d’AHCI, le mode IDE n’a plus de raisons d’être. Vous pouvez toutefois migrer vers l’AHCI sans avoir à formater votre PC. Sous Windows XP, il suffit de changer les pilotes du contrôleur de stockage, en installant ceux prévus pour l’AHCI, de rebooter, puis de changer le mode du contrôleur dans le BIOS ; si vous réglez le BIOS sans avoir au préalable remplacé les drivers, vous aurez droit à un bel écran bleu STOP 0x7B au boot. Sous Windows Vista ou 7, Microsoft

58 PC Update

Question

67

propose un petit assistant à exécuter avant de rebooter et de changer le mode dans le BIOS. Vous le trouverez, ainsi que la procédure détaillée en français, à la page support.microsoft.com/ kb/922976.

Advanced Format 4k, GPT, quèsaco ?

Depuis la nuit des temps (une trentaine d’années), les disquettes et disques durs de nos PC utilisent des secteurs de 512 octets. Le secteur est la plus petite unité de stockage au niveau matériel (par opposition au cluster, plus petite unité au niveau logiciel dont nous parlons juste après). Il est amusant de constater que, sur une même surface (disque de 3,5» de diamètre), on est passé d’une densité de 720 ko pour les premières disquettes jusqu’à plus de 500 Go pour les disques durs modernes, sans jamais changer la taille de secteur ! Oui mais voilà, avec un adressage LBA qui fonctionne en 32 bits, le nombre maximum de secteurs est atteint (4 294 967296) et, à 512 octets pièce, les disques durs ne peuvent pas dépasser 2,15 To. Conscients depuis des années de cette limite, les constructeurs de disques durs se sont mis d’accord en créant la norme Advanced Format qui, dans sa première spécification, propose des secteurs huit fois plus grands (4 ko au lieu de 512 octets). Grâce à ça, il est possible d’envisager des progrès capacitifs jusqu’à 16 To, sans avoir à remettre en cause le système d’adressage en vigueur. Western Digital fut le premier à passer aux disques 4k dès fin 2009, sachez qu’aujourd’hui, tous les nouveaux modèles qui sortent sont également en 4k. Les SSD fonctionnent également en 4k, bien que ça ne soit pas directement comparable (ils n’ont pas de secteurs à proprement parler, nous parlons alors de pages de 4 ko). Pour exploiter les médias en 4k, il faut également une nouvelle table des partitions et, donc, un BIOS et un OS compatibles. Remplaçant la table des partitions MBR (Master Boot Record) en vigueur depuis le début des années 80, GPT (GUID Partition Table) prend la relève avec un adressage sur 64 bits. Il a de quoi voir venir, GPT pilote disques et partitions jusqu’à 9,4 Zo ! Pour le BIOS, la norme UEFI est compatible GPT depuis des années (et donc toutes les cartes P67/H67 UEFI acceptent les disques de plus de 2,15 To), mais les constructeurs de cartes mères se débrouillent de plus en plus pour implanter un mécanisme d’émulation pour les BIOS classiques, afin que les disques de 3To en vente actuellement soient supportés sur des modèles plus âgés. Windows Vista et Seven sont compatibles, ainsi que les derniers noyaux de Linux et les dernières versions de Mac OS X. Ce n’est pas le cas des OS plus âgés et, parmi les plus usités, Windows XP. Afin d’éviter une transition trop radicale, les acteurs de

la norme Advanced Format ont prévu un mode de fonctionnement 512e (pour 512 octets émulés), qui est en fait adopté par 100 % des disques durs 4k et des SSD en vente jusqu’à maintenant. De fait, ces médias stockent en 4k mais sont reconnus par l’OS comme des appareils 512 octets classiques. Du coup, les disques sont utilisables, mais il est impossible de créer une partition de plus de 2,1 To d’un coup, puisque XP ne comprend que MBR et non GPT. Lorsque, d’ici un ou deux ans, nous passerons à de véritables disques 4k, ceux-ci ne seront plus compatibles avec XP. Autre aspect d’Advanced Format, pour le moment invisible, les gains de performances ! En effet, un transfert contient des informations annexes aux données, comme une adresse en en-tête et des données de correction en queue de peloton, autour des 512 octets de données à réellement stocker. Pour passer à 4k, les données de correction ont dû être augmentées, mais au final, il est bien plus performant de lire 4k d’un coup sans interruptions, plutôt que 8 x 512 octets avec 8 processus de correction d’erreurs. Tant que les disques fonctionnent en mode 512e, impossible de s’en rendre compte hélas. Question

68

Quels sont les intérêts et contraintes du RAID ?

Il existe différents niveaux de RAID, parmi lesquels le RAID 0, 1 et 5. Le premier consiste à cumuler deux unités pour améliorer les performances, mais si l’une d’elles tombe en panne, la totalité des données est perdue. Le RAID 1 cumule deux unités afin que la seconde soit un clone de la première. Aucun gain de performances et la moitié de la capacité est inutilisée, mais si l’une des unités est inutilisable, aucune donnée n’est perdue. Le RAID 5 est un compromis entre le RAID 0 et 1 puisque les performances sont en léger progrès et seule la capacité d’une unité est inutilisée. Ce mode requiert trois unités au minimum, mais quel que soit leur nombre, l’une d’entre elles peut tomber en panne sans conséquence sur les données. Si le RAID 1 et le RAID 5 sont axés sécurité, le RAID 0 mise donc tout sur les performances. Mais contrairement à une idée reçue persistante, il ne cumule pas strictement les performances des unités. Les débits séquentiels sont bien souvent cumulés avec un très bon rendement, mais ça ne suffit pas à doubler les performances perçues. Le lancement d’une application ne met pas deux fois moins de temps avec un RAID 0 qu’avec une seule unité. Cependant, bien que ce mode soit plutôt attrayant pour les disques durs, il est déconseillé pour les SSD. En effet, ces derniers sont tellement rapides que les contrôleurs RAID ont du mal à attribuer les tâches assez rapidement, de sorte que le gain est quasiment imperceptible en pratique. En ajoutant l’absence de TRIM sur les grappes RAID, on obtient une configuration qui sera dans le meilleur des cas à peine plus performante qu’un SSD seul et


Cadeau sécurisant

1 boitier USB pour disque dur 2.5’’ ou 3.5’’ au choix

12 numéros + 1 boitier

abonnement

Valable dans la limite des stocks disponibles

Profitez des performances incomparables de l’USB3. Vos disques durs externes seront enfin exploités au mieux de leurs performances.

bon de commande Je choisis :

boitier 3.5’

IB-318StUS3-B

IB-250StU3-B

• Boîtier en aluminium 3.5’’. • Silencieux, conception sans ventilateur. • Débit: USB 3.0 jusqu’à 5 Gbits/s. • Compatible USB 2.0 (480 Mbit/s)

• Boîtier en aluminium 2.5’’. • Sans ventilateur, fourni avec pochette. • Débit: USB 3.0 jusqu’à 5 Gbits/s. • Compatible USB 2.0 (480 Mbit/s)

boitier 2.5’

Nom

Prénom

Adresse Code Postal

Ville

Date de Naissance Paiements trimestriels

Pays Email

Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 19 € par trimestre.

Soit une économie de 38 euros ! Le paiement s’effectuera en 4 prélèvements, un par trimestre. Votre abonnement sera ensuite résiliable à tout moment ou renouvellable par trimestre au tarif de 16 €. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 19 € pour un minimum de un an à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/2011

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements Date (obligatoire)

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.


24 numéros bon de commande Nom

Prénom

Adresse Code Postal

Ville

Pays

Date de Naissance

1

Email

Paiement classique Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix spécial de 120 € Rajouter 24 € de frais de port CEE (reste du monde 40 €)

Paiement par : par chèque à l’ordre de Axiome Nom du titulaire de la carte par carte bancaire N°

Date d’expiration

Veuillez indiquer le code à trois chiffres figurant au dos de votre carte Signature du titulaire de la carte :

2

Date :

Paiements trimestriels Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix spécial de 15 € par trimestre.

abonnement

Abonnement

Soit une économie de 21.6 euros ! Le paiement s’effectuera en 8 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 15 € pour un minimum de deux ans à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/2011

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements Date (obligatoire)

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.


plus souvent en net retrait à cause de l’usure des performances que ne peut pas combler le TRIM.

moyenne acceptable si vous n’avez pas envie ou les moyens de faire de nombreux essais.

Attention toutefois, le RAID ne supporte pas toujours très bien les changements de plateforme. Que ce soit pour migrer un OS ou pour récupérer des données, alors que la carte mère est morte, la récupération de la grappe RAID est très aléatoire. Il est certain que changer de marque de contrôleur (par exemple Intel à AMD) ne vous permettra pas de récupérer votre système, mais même dans le cas d’une migration d’un chipset Intel à un autre Intel, ce n’est pas garanti non plus. Nous avons toutefois réussi à récupérer les données en recréant une grappe sur le nouveau contrôleur avec les mêmes paramètres que l’ancien.

Enfin, le cas d’une carte contrôleur RAID est assez simple. Les chipsets des cartes mères se débrouillent très bien en RAID 0 et RAID 1. Pour les autres modes, plus complexes et nécessitant des redondances, une carte contrôleur dédiée sera

Lorsque vous entrerez dans l’utilitaire de configuration de la grappe RAID, vous devrez préciser quelques paramètres. Le strip size est le plus courant d’entre eux et correspond à la taille des blocs répartis sur chaque unité. Avec un strip size de 128 ko, l’écriture d’un fichier de 256 ko sera répartie en deux blocs de 128 ko sur les deux unités. Si on utilise un strip size de 256 ko, le même fichier sera écrit sur une seule unité et le RAID n’aura donc aucun intérêt. La taille du strip size est, par défaut, fixée à 128 ko, c’est une valeur

Astuce

Comment interpréter les erreurs SMART ? Existe-t-il un moyen de les effacer ? SMART, acronyme de Self-Monitoring, Analysis, and Reporting Technology, est un système de surveillance des disques durs, en vigueur depuis la fin des années 90. Tous les disques durs sont compatibles, ainsi que les SSD, bien que les codes d’erreur ne soient pas prévus pour eux à l’origine (il n’existe toujours pas de spécification spéciale SSD). Lorsque l’on active la prise en charge du SMART dans le BIOS, si le disque dépasse une certaine valeur limite (qu’il s’agisse d’erreurs de lecture, de température ou tout autre sujet), le BIOS affiche un message au boot prévenant qu’il est conseillé de sauvegarder ses données et qu’un risque de panne est imminent. C’est peut-être le bon moment pour envoyer votre disque dur en garantie ! Bien que SMART soit souvent de bon conseil, il arrive également qu’il déclenche une alerte qui ne soit pas suivie d’une panne. Ça arrive d’ailleurs souvent avec les SSD SandForce qui, même neufs, produisent une alerte alors qu’il n’y a pas lieu de s’inquiéter.

plus efficace. Par exemple, un RAID 5 de six HDD sur un chipset classique dépassera difficilement les 40 Mo/s, alors qu’on atteint les 350 Mo/s avec une carte dédiée. En outre, la charge CPU est réduite puisque celui-ci ne se charge plus de répartir les données, permettant donc d’utiliser un Atom pour un serveur de stockage ultraperformant en utilisant une carte dédiée.

Pour mieux surveiller vos disques et SSD, sous Windows, le freeware CrystalDiskInfo (crystalmark.info) est indispensable. Il n’est pas possible d’effacer l’historique des erreurs SMART, ce qui évite notamment toute arnaque à la revente d’un disque dur douteux.

Tirez le meilleur des HDD Qu’est-ce que la fragmentation ? Pourquoi défragmenter ? Question

69

Le RAID permet d’améliorer les performances et/ou la fiabilité de votre stockage, mais manque de souplesse pour migrer des données et est à éviter avec des SSD.

Pour le système d’exploitation, la plus petite unité de stockage est le cluster (ou bloc en français). Sa capacité est une caractéristique du système de fichiers employé (exemples : FAT32, NTFS, Ext3), parfois ajustable. Depuis des années que nous utilisons des disques durs de plus de 2 Go et le système de fichiers NTFS, la taille des clusters par défaut est de 4 ko. Lorsqu’un fichier de taille plus importante est écrit (la majorité), il est logiquement scindé en plusieurs clusters. Par exemple, un fichier de 10 ko occupe trois clusters de 4 ko. Quid des 2ko restants ? C’est de l’espace perdu ! Le phénomène de fragmentation apparaît lorsqu’un fichier est réparti sur plusieurs clusters discontinus. Par défaut, le système de fichiers remplit les clusters dans l’ordre. En effaçant un fichier, les clusters qu’il occupait sont libérés et utilisés par la prochaine écriture. Mais si l’espace libre à cet endroit précis ne suffit pas, le système de fichiers écrit la suite du fichier sur les prochains clusters disponibles,

qui peuvent être à l’autre bout du disque dur sur un volume très fragmenté ! Il en résulte une chute dramatique des performances, car pour lire le fichier, la tête de lecture doit se déplacer. L’opération de défragmentation consiste donc à déplacer des clusters ici et là afin de rendre tous les fichiers contigus, leur lecture étant alors bien plus rapide. Les logiciels de défragmentation intelligents vont plus loin, en plaçant côte à côte les fichiers d’un même programme pour réduire encore un peu les temps d’accès. Etape cruciale de l’entretien d’un PC autrefois, la défragmentation se fait oublier ces temps-ci. Ceci s’explique par le fait que Windows effectue une défragmentation automatisée depuis Vista et par le passage progressif aux SSD. Ces derniers n’ont pas besoin d’être défragmentés car, n’ayant pas de tête de lecture à positionner, le temps d’accès est identique quel que soit le point du SSD ; au contraire, il est conseillé d’éviter de défragmenter un SSD, pour éviter de multiplier à outrance les cycles d’écriture et donc une usure prématurée. Contrairement à Vista, Seven coupe tout seul la défragmentation des SSD.

PC Update 61


dossier : questions micro

Pourquoi un disque dur est-il plus rapide lorsqu’il est peu rempli ? Question

70

L’OS ne semble jamais aussi rapide après plusieurs jours d’exploitation qu’au tout début. Ce phénomène s’explique de trois façons intimement liées au fonctionnement d’un disque dur. La première est l’absence totale de fragmentation tant qu’aucun fichier n’est supprimé. La seconde tient au fait que les premiers fichiers écrits et lus sur le disque sont situés à l’extérieur des plateaux, une zone naturellement plus rapide que vers le centre (la vitesse de rotation ne change pas, mais la vitesse angulaire est plus élevée vers l’extérieur). C’est pourquoi, lorsqu’un PC moderne n’est équipé que d’un seul et gros disque dur, il est conseillé

de faire une petite partition pour le système et les programmes (de 20 à plus de 100 Go suivant vos besoins, notamment le nombre de jeux à installer) et une énorme partition pour le stockage de données, comme les musiques ou les films. Enfin la troisième, la plus importante, réside dans le peu de déplacements que les têtes ont à faire lorsque le disque est peu rempli ; même si le système réclame la lecture de deux fichiers qui ne sont pas placés côte à côte, la tête n’aura quasiment pas à bouger sur un disque presque vide, au maximum 1 ou 2 millimètres. Mais s’il était plein, suivant les fichiers accédés, la tête pourrait avoir à bouger de plusieurs centimètres, augmentant considérablement le temps d’accès, même si nous parlons de millisecondes.

Les spécificités des SSD Question

Comment choisir un SSD et un contrôleur ?

le coût au gigaoctet des SSD. Si les SandForce SF-1200 avaient notre préférence jusque-là, leurs Dans le monde des SSD, on compte une successeurs, les SF-2200, les douzaine de contrôleurs, le composant déterremplacent aisément. OCZ Verminant avant tout autre le comportement et tex 3, Patriot Wildfire, Corsair les performances. Choisir un SSD revient Force GT, G.Skill Phoenix II et donc à choisir un contrôleur et une capacité. ADATA S511 seront donc les En revanche, la marque n’a que peu d’impordisques à surveiller. tance puisque leur rôle se borne souvent à En marge, les contrôleurs Marvell placer un sticker sur le SSD et à assurer le des Crucial C400, Intel 510 et support après-vente. Concernant ce dernier Corsair Performance 3 ont du mal point, il n’y a aucun vilain petit canard à à convaincre, mais ils seront peutsignaler, le choix se basera donc sur le prix être une bonne alternative si leur le plus bas. prix est sensiblement plus bas. Nous abordons tout juste la 3e génération Quant aux SSD d’ancienne généde la dégradation des performances des SSD de par sa structure, de contrôleurs accompagnés de mémoire ration, ils peuvent représenter Responsable la mémoire flash NAND est aussi à l’origine de la rapidité des SSD, permettant Flash de 25 nm qui permet de faire baisser de bonnes affaires, tant qu’ils des débits jusque là jamais atteints. intègrent le supQuestion port du TRIM. Hélas, leur Pourquoi les performances prix baisse rarement et ils d’un SSD baissent au fil stagnent donc au même prix du temps ? ou sont plus chers que leurs remplaçants, limitant donc Depuis leur apparition grand public en 2007, ces aubaines à des promoles SSD souffrent d’un mal assez inhabitions ou des fins de stock tuel : les performances se dégradent au fil isolées. de l’utilisation. Alors qu’on vante l’homoOutre le contrôleur, le type généité des débits sur l’ensemble du SSD, de mémoire flash embarqué contrairement aux disques durs, voilà que peut aussi influer sur les ces débits varient à la baisse dans le temps. performances pratiques. En Ce phénomène est simplement dû à leur général, chaque contrôleur principe de fonctionnement. est associé à un type de Ils sont composés de puces de Flash NAND puce particulier, par exemple de 2 à 8 Go organisées en pages de 4 ko de la 34nm en provenance formant des blocs de 512 ko. d’IMTF sur les contrôleurs Hélas, s’il est possible d’écrire sur une seule Sandforce SF-1200. Le cas page au sein d’un bloc, on ne peut effacer est assez rares, mais il faut que bloc par bloc. En outre, lorsqu’une page se méfier si les puces chanest effacée par le système, le hardware gent, car les débits et les n’est pas au courant. Dès lors, pour écrire latences ne sont plus les une page de 4 ko qui contient encore d’anciennes données inutilisées, le contrôleur Les contrôleurs Sandforce SF-1200 ont dominé le marché en 2010, leurs successeurs mêmes, modifiant le comles SF-2200 sont bien partis pour en faire autant en 2011. portement du SSD. du SSD va lire les 128 pages du bloc, les

71

72

62 PC Update


effacer et réécrire les pages du bloc, sans oublier la nouvelle page. Ecrire une page de 4 ko requiert donc un processus complexe rassemblant la lecture de 128 pages de 4 ko, l’effacement de toutes ces pages, et la réécriture de 1 à 128 pages. Plus les blocs contiendront des pages inutilisées mais tout de même écrites, plus lente sera l’écriture des données. C’est exactement le phénomène que l’on retrouve sur les SSD, alors que les débits en lecture ne varient guère, cette opération étant des plus simple. En parallèle, le contrôleur intègre des algorithmes pour répartir intelligemment les écritures (write combining) et pour les répartir équitablement sur la totalité de la capacité du SSD (wear leveling). Sans entrer dans les détails puisque ce n’est pas modifiable car ancré en dur dans le contrôleur, il s’agit d’écrire plusieurs pages à la suite, au lieu de les écrire de façon aléatoire et indépendante. Cependant, si cette méthode s’avère très efficace lorsque les blocs sont vides, à partir du moment où ils contiennent tous au moins une page écrite, il faudra en passer par la traditionnelle phase d’effacement/ réécriture, faisant alors un peu plus baisser les débits en écriture. Question

73

A quoi sert le TRIM ?

Le TRIM est une fonction simplissime. Elle a pour but de communiquer au périphérique quelles données ont été effacées par le système et peuvent donc être effacées de la mémoire. Bien qu’elle fonctionne aussi avec les disques durs classiques, elle a surtout été introduite pour les SSD avec Windows 7. Ainsi, durant les phases d’inactivité, le système envoie la commande TRIM partout, notamment au SSD qui va ainsi pouvoir effacer toutes les pages désormais inutiles. En plus de réduire la phase d’effacement lors de l’écriture d’une nouvelle page, il arrive qu’un bloc entier soit alors effacé. Ainsi, l’écriture suivante se fera immédiatement, en se dispensant de la phase d’effacement/réécriture.

Pour que la commande soit exécutée, il faut en revanche que la chaîne de stockage (SSD, pilotes du contrôleur de stockage et système d’exploitation) soit compatible. Si Windows 7, Linux et Mac OS X sont compatibles, ainsi que tous les SSD de la dernière génération, ce n’est pas le cas de tous les pilotes. Si vous utilisez un OS incompatible comme XP ou Vista, il est toutefois possible, selon les SSD, de lancer manuellement cette commande, via des utilitaires dédiés (Intel Toolbox pour les X25-M G2 et Wiper pour les SSD à base d’Indilinx Barefoot). Inutile de la lancer toutes les heures, une fois tous les 3 à 7 jours suffit amplement.

Dans le cas d’un SSD, 74 faut-il installer les drivers de stockage ? Question

Dans le cas d’un SSD, les drivers de stockage jouent un rôle très important dans le support de la commande TRIM. Comme nous l’avons vu, ceci permet de conserver des performances de premier ordre pendant de longs mois. En prime, on peut bénéficier de débits un peu améliorés. En plus des contrôleurs Intel et AMD présents sur les cartes mères, il arrive que des ports SATA 6 Gb/s soient reliés à des puces Marvell. Ceux-ci supportent depuis quelques mois le TRIM, à condition de télécharger les derniers drivers. En revanche, il faudra être en AHCI. Pour l’IDE, les pilotes de base de Windows 7 seront préférables car compatibles avec le TRIM. Même conclusion chez AMD. En revanche, les pilotes Intel depuis les RST 9.6 supportent le TRIM à la fois en IDE et en AHCI. Ils supportent même le TRIM lorsque le contrôleur est en mode RAID, à condition que le SSD ne fasse pas partie d’une grappe RAID (concrètement, un SSD seul et plusieurs HDD en RAID sur le même contrôleur). Chez AMD ou Marvell, le TRIM ne passera pas en RAID, quel que soit le pilote utilisé.

Bluray Question

75

CrystalDiskInfo permet de vérifier si votre SSD supporte bien le Trim, entre autres choses utiles.

Peut-on toujours dézoner un lecteur DVD/BD ?

Depuis l’apparition des DVD vidéo et du système de zonage visant à limiter les échanges de DVD d’un marché à l’autre (les dates des sorties n’étant pas les mêmes), le passionné d’informatique et de cinéma est en croisade permanente contre ce procédé pour profiter, comme bon lui semble, des films en vente. Les DVD vidéo utilisent un zonage numérique de 1 à 8, les deux qui nous intéressent le

Bien qu’ils finississent par arriver en France, de nombreux films sortent en premier aux Etats-Unis, jouant de notre patience !

plus étant la 1, l’Amérique du Nord (USA et Canada), et la 2, la nôtre (Europe, mais aussi Japon, Afrique du Sud, Moyen-Orient et Egypte). Simplifiant le système, les Blu-Ray sont zonés avec des lettres, A, B ou C. Nous sommes en zone B, les Etats-Unis et leurs films qui sortent plus tôt sont en zone A, la problématique n’a donc pas changé. Outre des bidouilles logicielles qui changent suivant vos programmes et évoluent dans le temps, la méthode la plus fiable pour dézoner consiste à remplacer le firmware du lecteur par une version qui ne tient pas compte du zonage. Parmi les nombreux sites qui parlent du sujet, rpc1.org est la référence absolue depuis de nombreuses années, tant pour son forum que sa base de données de firmwares (modifiés ou d’origine). Il tient son nom de la vieille norme RPC1 qui spécifiait des lecteurs de DVD non zonés au tout début, lorsqu’un lecteur DVD-Rom de PC n’était pensé que pour lire des disques de données et non des films. Les lecteurs de DVD vidéo zonés répondent, eux, à la norme RPC2. Malgré l’immensité des fichiers proposés, certains lecteurs/graveurs ne sont pas dézonés.

Astuce

Mes rips de Blu-Ray sont lents, que faire ? Pour limiter le piratage, certains lecteurs de Blu-Ray sont artificiellement bridés en lecture. Comme nous venons de l’expliquer pour le dézonage, sachez qu’il existe également des patchs pour les firmwares des lecteurs bridés, afin qu’ils puissent lire en 4 ou 8x les films à ripper. Une fois encore, rpc1.org est une référence en la matière, les plus chanceux trouveront un firmware à la fois débridé et dézoné pour leur appareil !

PC Update 63


dossier : questions micro

Alimentations

Puissance, rendement, comment choisir ? USB et encore un peu moins pour les ventilateurs de boîtier. Pour les adeptes de CrossFire et SLI avec deux bons GPU, une alimentation autour de 800 W est idéale. S’il n’y a aucun risque électrique, acheter « trop » gros n’est pas la meilleure idée, car le rendement d’une alimentation est optimal autour des 50 %. Un PC qui consomme 300 W en charge et 90 W au repos vous coûtera plus en facture électrique s’il est alimenté par un bloc de 1 200 W que par un bloc de 500 W (à certification 80 Plus égale, bien entendu).

Le rendement est-il un critère de qualité ou simplement un effet de mode ? Ecologie, économies, est-ce vraiment rentable ? Question

77

Il vaut mieux prendre un peu trop puissant et ainsi bénéficier de la plage de rendement optimale (éviter les très faibles et très fortes charges).

Quelle puissance d’alimentation choisir ? Trop/pas assez puissante, quels risques ? Question

76

Le premier critère est la puissance, qui doit être adaptée à votre PC. Il faut, au minimum, qu’elle soit capable de fournir ce que réclame votre PC à fond de charge, sans quoi le PC plantera par manque de jus. A moins de se contenter d’une carte mère tout intégrée et d’un Athlon II X2 240e qui n’atteindront jamais 100 W, le minimum pour tout PC moderne est de 250 W. C’est l’ordre d’idée de puissance requise par une machine avec un processeur milieu de gamme et un petit GPU, un disque dur, le tout en pleine charge. Pourtant, les alimentations ne sont plus vendues en dessous de 400 W. Outre le fait que de nombreux PC consomment plus, il faut surtout éviter d’être proche de la limite de votre alimentation, pour favoriser le rendement et la durée de vie de celle-ci, sans oublier le silence puisque tous les ventilateurs d’alimentation sont thermorégulés. Si votre PC ne consomme que 250 à 300 W au maximum, cette 400 W est donc idéale. Pour un PC avec une carte graphique de joueur, l’achat d’une alimentation 500 W est souhaitable, et même 600 W pour les GPU les plus haut de gamme (également les plus gourmands). L’achat d’une alimentation de puissance supérieure ne se justifie que par la multiplication des CPU ou GPU. Sans être négligeables, les autres composants d’un PC consomment peu. Un disque dur en mode recherche ne consommera jamais plus de 10 W, un SSD 5 W, pareil pour un périphérique

64 PC Update

Les deux. Il y a un vrai effet de mode pour l’augmentation du rendement des alimentations, comme tout ce qui touche à l’écologie depuis quelques années, si bien qu’une alimentation qui ne dispose pas du label 80 Plus est désormais considérée comme dépassée. C’est aussi un critère de qualité puisque l’augmentation de rendement se fait par l’emploi de designs plus aboutis et de composants de meilleure qualité. D’ailleurs, qui dit

meilleur rendement, dit moins de perte d’énergie en chaleur et donc moins de bruit. Il est, en revanche, dommage que, surfant sur l’effet de mode, la majorité des constructeurs construisent exclusivement leurs gammes autour du rendement, ne proposant des solutions haut de gamme qu’en Gold et des solutions pas chères qu’en Bronze. Pour qui s’en fiche d’économiser 5 € d’électricité par an, ne pourrait-on pas avoir des alimentations Bronze qui bénéficient de la même qualité de fabrication que les Gold (modulaires, silencieuses, finitions) pour un peu moins cher ? Ces dernières sont trop rares, comme la série CMX (Bronze) de Cougar ou Straight Power E8 (Silver) de be quiet! Une chose est sûre, payer plus cher une alimentation sous prétexte qu’elle fera baisser la facture énergétique est un non-sens économique. Prenons un court exemple, extrême : à raison de 6 heures d’utilisation en pleine charge par jour, un PC milieu à haut de gamme qui consomme 400 W et utilise une alimentation de 600 W tire environ 460 W à la prise sur une 80 Plus Bronze et seulement 440 W avec une 80 Plus Gold. Sur l’année, la différence de facture énergétique (au tarif standard EDF de 0,11 c le kWh) se monte à 5 €. Même sur 5 ans, vous aurez à peine rentabilisé l’écart de prix qu’il y avait entre les deux alimentations à l’achat ! Mais si vous êtes sensible aux petits gestes écologiques, ça se tient.

La connectique

Peut-on se contenter d’une alimentation avec un connecteur CPU 4 pins sur une carte mère avec une prise 8 pins ? Question

78

Oui, sans aucun problème ! La norme ATX prévoit 4 pins (connecteur ATX 12 V), la norme EPS du monde des serveurs grimpe à 8 pins (EPS 12 V) mais dans les deux cas, il s’agit du même courant, c’est-à-dire du 12 V pour alimenter le CPU. Le connecteur 8 pins est apparu du temps des Pentium 4 et dérivés Xeon en Prescott qui consommaient beaucoup, surtout les versions dual core. A cette époque, les alimentations n’étaient pas aussi performantes qu’aujourd’hui et ne pouvaient pas fournir suffisamment sur le 4 pins. D’autre part, la consommation max de la majorité des

Conçu pour les serveurs et les processeurs les plus exigeants, le 8 pins n’est pas obligatoire dans la majorité des PC (il faut au moins le 4 pins).

CPU est en baisse, si bien que le 4 pins suffit et qu’une alimentation âgée peut encore être branchée sur une carte mère moderne ; pas de risque d’erreur, le 4 pins ne rentre que de la bonne façon dans la prise 8 pins grâce aux détrompeurs. Brancher un 8 pins est, en revanche, conseillé dès qu’on overclocke et


on dit alors qu’ils fuient. Selon le scénario, la marche à suivre n’est pas du tout la même ! Lorsque le sifflement provient de vibrations, c’est désagréable, mais sans aucune conséquence. En revanche, si au démontage de l’alimentation, vous découvrez des condensateurs gonflés voire recouverts d’une substance chimique sur le dessus, c’est mauvais signe, l’alimentation risque de lâcher à tout moment.

qu’on accroît la tension. Des constructeurs, EVGA en tête, vont même jusqu’à souder deux prises 8 pins pour le CPU ! Mais rassurerezvous, ça ne sert qu’à quelques dingues de l’overclocking extrême qui n’hésitent pas à gaver leur hexacore Intel jusqu’à près de 2 V pour tenter de battre un record du monde avant qu’il ne parte en fumée.

Que faire si la carte graphique requiert un PCI-E 8 pins que l’alimentation n’a pas ? Utiliser des adaptateurs Molex vers le PCIExpress est-ce déconseillé ? Question

79

Les cartes graphiques haut de gamme réclament de plus en plus un connecteur PCI-E 8 pins, capable de délivrer deux fois plus d’énergie qu’un 6 pins (150 W au lieu de 75). Si votre alimentation un peu trop âgée n’en a pas, il existe des adaptateurs. Il vaut mieux éviter les adaptateurs 6 vers 8 pins, car le courant délivré par les pins de l’alimentation risque d’être insuffisant, il existe également des adaptateurs Molex (ou SATA) vers 8 pins qui sont plus adaptés. Sans aller jusqu’à déconseiller la chose, c’est une solution qui n’est pas

franchement idéale car, suivant l’alimentation, le rail attribué à la prise Molex n’est pas forcément conçu pour délivrer suffisamment d’énergie. Quoi qu’il en soit, vous ne courrez pas de risque, ni pour vous ni pour votre carte graphique, mais si le PC plante et reboote durant les jeux, vous saurez vers quelle piste vous orienter ! Question

80

Alimentation qui siffle, est-ce grave ?

Certains composants électroniques, surtout ceux de basse qualité, font du bruit en fonctionnant. Ils vibrent, tout simplement, mais les fréquences de fonctionnement sont telles que nous avons l’illusion d’un sifflement. Il arrive également que des condensateurs sifflent,

Si les bobines sont recouvertes d’isolant, c’est précisément pour prévenir tout risque de vibration audible en fonctionnement.

Réseau Question

81

Toutes les cartes réseau Ethernet se valent-elles ?

Comme nous l’expliquons régulièrement à propos des contrôleurs de stockage en RAID, il existe des cartes réseau « logicielles » (c’est le

La Killer 2100 de BigFoot Networks, une carte réseau qui se distingue par un driver abouti qui offre une bonne gestion des priorités des besoins d’accès au réseau (QoS).

CPU qui travaille) et des cartes réseau « hardwares » (avec une puce dédiée aux échanges de données en réseau). Dans le premier cas, le plus fréquent, seule une puce de type PHY est soudée, pour effectuer la conversion entre les signaux numériques internes au PC et ceux analogiques qui parcourent les câbles réseau. Entre ces deux catégories, si les débits réseau n’évoluent pas, nous constatons une différence sensible d’usage CPU ; lorsqu’un réseau Gigabit donne le meilleur de lui-même (125 Mo/s), la première catégorie laisse le CPU libre à 100 % ou presque, la seconde met à genoux un petit P4 et réclame encore 10 % d’un Core i7 ! L’avantage reste vrai dans l’autre sens, c’est-à-dire que le réseau ne s’effondre pas si le CPU est en charge, lorsque l’on a une vraie carte réseau. Pour les joueurs, c’est la garantie d’un ping constant, même durant les passages les plus extrêmes pour le CPU. Précisons qu’une carte réseau sous la forme d’une carte fille PCI ou PCI-E n’est pas forcément synonyme de « vraie carte réseau », les modèles les plus abordables sont des PHY identiques à ceux soudés sur les cartes mères. Et, bien que ça soit

très rare, il existe aussi quelques vraies cartes réseau sur des cartes mères, comme la récente série G1.Killer de Gigabyte que nous avons testée dans Hardware Magazine n° 52 avec la carte réseau E2100 de Bigfoot Networks. A comparer les différents PHY qui équipent nos cartes mères, il n’y a, en revanche, que très peu d’écart. L’essentiel des différences provient surtout du driver, mais de nos jours, le réseau Gigabit est si bien maîtrisé qu’il devient impossible d’observer des différences. Le seul point de détail que nous conseillons de surveiller est la façon dont est relié ce PHY au southbridge. S’il s’agit d’un vieux modèle en PCI, c’est moins bien que les actuels en PCI-E 1x. Néanmoins, si vous n’utilisez aucun autre périphérique PCI, les 133 Mo/s de bande passante de ce bus ne sont pas une bride pour le réseau.

Certaines cartes mères ont deux cartes réseau, peuton coupler leurs performances ? Question

82

De nombreuses cartes mères haut de gamme possèdent deux cartes réseau Ethernet. A quoi bon ? Pour les stressés de la sécurité, c’est une façon de maintenir distincts certains appareils de votre réseau local, branché à l’une

PC Update 65


dossier : questions micro

compte des éventuelles perturbations qui peuvent intervenir durant la lecture d’un film, comme un coup de téléphone sans fil DECT ou l’utilisation d’un four à micro-ondes, pouvant provoquer des sautes d’image. Le réseau filaire Ethernet, bien plus performant, reste un must pour qui a le courage de l’installer.

Une box ADSL fait-elle aussi bien qu’un vrai ensemble modem + routeur + point d’accès ? Question

84

Si c’est parfois possible, cumuler la bande passante de deux cartes réseau n’est pas chose aisée et automatique.

des prises de votre carte mère, d’Internet qui est branché sur la seconde carte. Mais n’y a-til pas plus séduisant, peut-on passer de 1 à 2 Gbps en utilisant les deux ports simultanément ? L’agrégation de liens existe depuis des années mais seules les versions serveur de Windows prévoient de s’en servir nativement. Pour un PC standard, il faut recourir à des pilotes qui prévoient l’agrégation. C’est le cas chez nVidia depuis des années (à partir des nForce 500), c’est de plus en plus souvent le cas sur les nouvelles cartes mères Intel. La mention Teaming (travail en équipe) permet de s’en assurer. Concrètement, en branchant les deux cartes réseau à votre switch, les personnes qui téléchargent sur votre ordinateur pourront atteindre 2 Gbps, c’est votre pilote qui répartit les données entre les deux cartes. Dans le sens inverse, lorsque l’on souhaite uploader sur votre machine, la limite reste à 1 Gbps, à moins de posséder un (coûteux) switch intelligent capable de load balancing (il pourra agréger les deux ports reliés à votre PC pour avoir 2 Gbps dans ce sens également). Les fabricants mettent également en avant l’intérêt du teaming pour les joueurs, prétextant qu’un débit réseau important ne vient pas perturber le ping d’une partie en ligne. C’est vrai, mais qui s’amuse à débiter à plus de 100 Mo/s (vitesse nécessaire pour venir perturber le ping) en même temps qu’il joue ?

Un bon réseau CPL 200 ou WiFi N peut satisfaire les besoins de la vidéo HD, mais c’est prendre des risques de microcoupures qui n’existent pas en Ethernet.

pointes dépassant les 2 Mo/s, de l’autre un débit moyen de 3,5 Mo/s avec des pointes jusqu’à 5 Mo/s. Un bon Wi-Fi G (54 Mbps) étant capable de débiter à 2,5 Mo/s soutenus, il suffit encore à la HD 720p et aux rips 1080p. Pour les Blu-Ray, le Wi-Fi N est obligatoire, mais assurez-vous que les antennes soient suffisamment bien placées pour assurer les débits requis ! La moindre perturbation ou mur épais et c’est fichu pour les BD les plus lourds. En CPL, la situation est comparable. Les kits 85 Mbps sont tout juste bons à faire passer les rips MKV 1080p, il faut impérativement acheter un kit 200 Mbps pour envisager de lire des Blu-Ray à travers le réseau. Ceci ne tient pas

Si le monde entier possédait les mêmes box ADSL que la France (et ça n’est quasiment le cas nulle part, même en Asie), les constructeurs de produits réseau traditionnels comme Netgear ou D-Link auraient du souci à se faire ! Bien que les réglages accessibles à l’utilisateur soient généralement restreints, elles n’ont rien à envier aux appareillages réseau classiques. Il n’existe aucune différence sur la partie modem, les fonctions de routage essentielles sont toutes présentes (y compris le serveur DHCP avec réservation d’adresses, la redirection des ports, la compatibilité µPNP et le filtrage par adresse MAC). Quant à la partie réseau sans fil, toutes les box modernes sont compatibles 802.11n et bénéficient des mêmes méthodes de cryptage qu’un point d’accès séparé, jusqu’au WPA2. Leurs fonctions de téléphonie et de TV IP leur sont même exclusives. Les meilleures peuvent même remplacer les lecteurs multimédias DLNA grâce à leur disque dur intégré ! A titre de comparaison, un routeur tout-en-un coûte autour de 130 €, un lecteur plus de 100. En bref, sauf pour quelques besoins avancés (par exemple la création d’un tunnel VPN entre votre entreprise et votre domicile), pas besoin de remplacer votre box ADSL par d’autres matériels. Il est, en revanche, souvent utile d’étendre les capacités de votre réseau avec un switch Gigabit ou un extender Wi-Fi.

Wi-Fi, CPL, ces technologies réseau suffisent-elles à la vidéo HD ? Question

83

Très prisées pour relier un PC home cinéma au fond du salon sans avoir à tirer un long et disgracieux câble réseau, les technologies de réseau sans fil sont-elles suffisamment performantes ? Pour la vidéo SD, aucun problème. Le bitrate d’un DVD non recompressé n’excédera jamais 10 Mbps, soit 1,25 Mo/s. Sauf à rencontrer d’importantes perturbations, n’importe quels Wi-Fi (même en G) et CPL en sont capables. C’est pour la haute définition que les choses se corsent ! Prenons deux exemples, un rip MKV 1080p de 13,5 Go et un film Blu-Ray non recompressé. D’un côté, nous avons un bitrate moyen de 14,5 Mbps, soit 1,75 Mo/s, mais avec des

66 PC Update

Super performantes, les box ADSL n’ont rien à envier aux appareils réseau classiques.


Quizz Consumérisme et assemblage Q-1 Les machines de grands constructeurs sont moins chères à l’achat. Vrai ou faux ? Q-2 Une catégorie de PC prémontés n’est pas plus chère que l’assemblage manuel, qui vend ces ordinateurs ? Q-3 Qui offre les meilleures garanties du PC de marque ou du PC assemblé ? Q-4 Votre jeu plafonne à 35 FPS, comment déterminer si le CPU bride ? Q-5 Pourquoi un SSD est-il si performant comparé aux disques durs ? Q-6 Une carte son spéciale home cinéma est nécessaire pour profiter du son HD des Blu-Ray. Vrai ou faux ?

CPU Q-7 Qu’est-ce que l’HyperThreading ? Q-8 Combien existe-t-il de niveaux de mémoire cache dans un processeur ? Q-9 Il arrive que certains CPU haut de gamme soient fabriqués de façon strictement identique à l’entrée de gamme. Vrai ou faux ? Q-10 Pour un joueur, il vaut mieux privilégier un dual core de forte fréquence plutôt qu’un quad core plus lent. Vrai ou faux ? Q-11 Peut-on installer un Phenom II sur une vieille carte mère AM2 ?

Silence et refroidissement Q-12 Est-ce qu’atteindre 90 °C est dangereux pour le matériel ? Q-13 Comment s’appelle la technologie de réduction de bruit intégrée à de nombreux disques durs ? Q-14 Qu’est-ce que la notion de surpression ou dépression dans un PC ? Q-15 Qu’est-ce que PWM ? Q-16 Sur une prise Molex (du type disques durs IDE ou ventilateurs qui ne se branchent pas sur la carte mère), quelle tension arrive sur le fil rouge ? Sur le fil jaune ? Q-17 Combien de degrés peut-on gagner sur son processeur en utilisant de la pâte thermique ?

Overclocking Q-18 Quelle fréquence peut atteindre un Core de seconde génération en refroidissement à air ? Q-19 Overclocker sous Windows est aussi performant que depuis le BIOS. Vrai ou faux ? Q-20 Quel est le meilleur moyen d’accroître un overclocking ?

Q-29 En %, quel gain de performances espérer entre de la DDR3-1600 et de la DDR3-2133 ?

Cartes graphiques Q-30 Combien d’écrans peut-on brancher sur une carte graphique ? Q-31 Le support de DirectX 11 est le critère d’achat essentiel. Vrai ou faux ? Q-32 Qu’est-ce que le jeu en « surround » ? Q-33 Les FPS sont-ils multipliés par le nombre de cartes graphiques placées en SLI ou CrossFire ?

Stockage Q-34 Peut-on brancher un périphérique SATA 6 Gb/s sur un port SATA-2 ? Q-35 Qu’est-ce que le mode AHCI ? Q-36 Les disques durs 4k natifs sont incompatibles avec Windows XP, vrai ou faux ? Q-37 Que signifie la fragmentation des données ? Q-38 Comment s’assurer d’utiliser en priorité la partie la plus rapide d’un disque dur ? Q-39 A quoi sert le TRIM ? Q-40 Peut-on dézoner un lecteur de Blu-Ray ?

Alimentations Q-41 Il est dangereux d’utiliser une alimentation trop puissante. Vrai ou faux ? Q-42 Acheter un bloc 80 Plus Gold fait-il vraiment gagner de l’argent ? Q-43 Est-il possible de se contenter d’une broche ATX 12 V à 4 pins sur une carte mère munie d’une prise 8 pins ?

Réseau Q-44 Quels avantages offre une vraie carte réseau par rapport à un contrôleur software intégré aux cartes mères ? Q-45 Est-il possible de lire un film Blu-Ray en Wi-Fi ?

Réponses R-1 Faux. Ces PC sont assez bien placés en entrée de gamme, mais dès que nous dépassons 500/600 €, les PC assemblés sont moins coûteux.

Q-21 La RAM tourne impérativement à la fréquence indiquée dessus. Vrai ou faux ?

R-2 Des e-tailers, terme anglo-saxon moderne pour « revendeurs en ligne » tels que LDLC.com.

Cartes mères

R-3 Sauf à souscrire un coûteux contrat d’entretien étendu, les PC de marque ont une garantie plus courte. De plus, il faut immobiliser la machine complète à la moindre panne.

Q-22 Une carte mère à 100 € est forcément de moins bonne qualité qu’une carte à 300 €. Vrai ou faux ? Q-23 Combien de composants forment un chipset ? Q-24 Qu’est-ce qu’un GigaTransfert ? Q-25 PCI-Express 16x. Que signifie le 16x ? Q-26 Il est indispensable de formater en changeant de carte mère. Vrai ou faux ?

R-4 Faire tourner le jeu avec, en tâche de fond, le gestionnaire des tâches de Windows. Si un ou plusieurs cores sont régulièrement à 100 %, le CPU vous limite. R-5 Plus que les débits, c’est le temps d’accès aux données qui fait surtout la différence. De 12 ou 13 ms, nous passons à moins de 1 ms ! R-6 Faux. Il suffit d’avoir une sortie HDMI 1.3 ou 1.4 comme il y en a sur la majorité des cartes graphiques (ou cartes mères avec IGP) modernes.

Q-27 Quels sont les principaux avantages des BIOS UEFI ?

R-7 Une technologie qui double virtuellement le nombre de cores d’un processeur pour en maximiser les performances.

RAM

R-8 Bien qu’il n’existe aucune limite, ni de norme, ni de technique, tous les CPU ont depuis des années deux niveaux, les plus modernes ayant adopté un troisième niveau partagé entre les coeurs.

Q-28 Qu’est-ce que le dual (ou le tri) channel ?

PC Update 67


dossier : questions micro

R-9 Vrai ! Il arrive que des gammes soient identiques à la quantité de cache ou le nombre de cores près et les modèles haut de gamme qui ne passent pas tous les tests sans erreurs sont déclassés, avec des parties désactivées. R-10 Faux ! Bien que nous ayons tenu ce discours durant les premières années du quad core, les développeurs de jeux ont désormais pris l’habitude d’en tirer profit. Si les hexacores sont encore inutiles, les quad core font mieux dans la majorité des jeux récents que les dual. R-11 Généralement, oui. Il convient toutefois de s’assurer que le constructeur a prévu une mise à jour de BIOS pour le reconnaître et que l’étage d’alimentation est assez costaud pour supporter le nouveau modèle (toutes les cartes estampillées 140 W sont adaptées). R-12 Tout dépend du composant analysé. Pour un disque dur, c’est la catastrophe, pour un CPU c’est dangereux, pour un mosfet d’étage d’alimentation ou un GPU, c’est tout à fait acceptable. R-13 AAM (Automatic acoustic management).

une carte DX10 qui soit capable d’afficher vos titres dans la bonne résolution qu’une carte DX11 bon marché mais trop lente. R-32 C’est le fait de jouer en multi-écran avec au moins trois affichages (deux écrans sur les côtés, en surround). Le terme vient de Matrox qui propose des solutions de jeu sur trois écrans depuis des années, récemment repris par AMD et nVidia. R-33 Oui et non. Avec deux cartes, les gains sont conséquents (un bon 80 % sur de nombreux titres), mais la 3e carte et encore plus la 4e voient ce rendement s’effondrer de manière très inégale d’un jeu à l’autre. R-34 Oui, sans aucun souci. Toutefois, si ce dernier est capable d’atteindre des débits très élevés (jusqu’à 500 Mo/s sur les derniers SSD top perfs), ils seront bridés autour de 250 Mo/s. R-35 C’est le vrai mode de fonctionnement SATA d’un contrôleur de stockage. C’est indispensable pour profiter des innovations telles que le NCQ, le hot-swap ou le TRIM.

R-14 La stratégie de refroidissement. Dans le premier cas, il y a plus de ventilateurs qui extraient l’air, dans le second, il y a plus de puissance d’aspiration d’air extérieur.

R-36 Vrai ! Heureusement, il n’en existe pas encore, les disques durs modernes qui utilisent des secteurs de 4k sont en mode 512e (émulation de secteurs 512 octets) pour maintenir la compatibilité.

R-15 Signifiant Pulse Width Modulation, c’est une technique de variation de la vitesse d’un moteur électrique en fonction d’un signal. Dans le cas d’un ventilateur PC type PWM, une sonde de température indique au ventilateur à quelle vitesse tourner (prise ventilateur à 4 fils au lieu de 3).

R-37 Lorsque les données sont écrites dans des clusters qui ne sont pas contigus, nous disons qu’elles sont fragmentées. Avec un disque dur, il s’en suit une perte de performances due au temps de déplacement des têtes pour atteindre les différentes parties.

R-16 Les fils rouge et jaune délivrent respectivement une tension de 5 et 12 V.

R-38 En créant une première partition de taille limitée (10 à 100 Go) qui prend place à l’extérieur des plateaux, l’endroit le plus rapide.

R-17 C’est énorme, plus de 20 °C ! R-18 Avec de l’expérience et de la chance, plus de 5,5 GHz ! En usage quotidien, viser un petit 5 GHz est même réaliste ! R-19 Vrai. A quelques réglages avancés près, l’essentiel est accessible depuis Windows et, sauf record absolu, il est possible d’atteindre les mêmes fréquences d’une manière ou de l’autre. R-20 Augmenter (modérément) la tension du composant concerné.

R-39 C’est une commande qui précise au SSD quelles données ont été effacées par l’OS, afin que celui-ci les efface aussi vraiment des puces Flash. Ainsi, lorsque de nouvelles données arriveront, il n’y aura plus à prendre le temps de faire de la place avant d’écrire. R-40 Oui, à condition qu’un spécialiste ait conçu un firmware modifié pour votre modèle.

R-21 Faux ! Elle est vendue pour tourner sans problème jusqu’à cette fréquence, mais rien n’empêche de l’utiliser plus lentement… et pourquoi pas de tenter plus vite !

R-41 Faux ! Le seul inconvénient d’une alimentation trop puissante est de la faire travailler dans une plage de fonctionnement éloignée de son rendement maximal.

R-22 Vrai et faux ! Les cartes moins chères font des sacrifices sur les possibilités d’overclocking, sur l’équipement et sur le bundle. Bien que la qualité de certains composants soit parfois très légèrement inférieure, ça n’affecte pas une utilisation standard.

R-42 Pas vraiment, car la facture d’énergie en baisse de 0 à 10 € par an suivant l’usage est loin de compenser l’achat du nouveau modèle. En revanche, un PC équipé d’une telle alimentation et allumé 24/7 en pleine charge permettra d’économiser jusqu’à 30 € par an.

R-23 C’est variable d’un chipset à l’autre. Sauf quelques exceptions en 3 puces, ils sont généralement en 2 puces et, de plus en plus fréquemment, monocomposants.

R-43 Oui, sans aucun souci.

R-24 Certains bus sont bidirectionnels. Ils sont donc capables de faire circuler jusqu’à deux fois plus d’infos dans un laps de temps donné que le même bus monodirectionnel, mais ils ne peuvent toutefois pas atteindre cette valeur double dans un seul sens. Pour éviter la confusion, les valeurs bidirectionnelles sont exprimées en GigaTransferts par seconde (GT/s). R-25 16 lignes PCI-Express sont utilisées pour ce port, multipliant ainsi la bande passante par 16. Ils sont reconnaissables par leur longueur, supérieure aux autres. Il arrive toutefois que certains ports 16x soient câblés en 8x (8 lignes PCI-Express) voire moins. R-26 Faux ! Tant que le contrôleur de stockage est reconnu par l’OS, le PC bootera et il suffit d’installer de nouveaux drivers. R-27 Interface graphique, pilotage à la souris, boot ultrarapide et compatibilité avec les disques durs de plus de 2,15 To. R-28 Une technique qui consiste à cumuler la bande passante de deux (ou trois) contrôleurs de mémoire afin d’augmenter les performances, sans remettre en cause le type de mémoire utilisé ni compliquer les mises à niveau qui imposeraient deux ou trois barrettes à la fois. R-29 5 à 10 %, c’est peu pour un tel écart de prix d’achat (la DDR3-2133 est deux à trois fois plus chère). R-30 Minimum deux, parfois trois (certaines Radeon HD5000/HD6000, moyennant un adaptateur DisplayPort pour l’un des trois). Beaucoup de cartes graphiques ont plus de deux sorties, elles ne sont pas capables d’afficher sur plus de deux à la fois. R-31 Faux. Bien que ça soit utile pour profiter des derniers jeux avec les meilleurs graphismes possibles, la puissance de la carte compte plus. Il vaut mieux

68 PC Update

R-44 Un usage CPU réduit (qui laisse la puissance disponible pour d’autres usages, comme le jeu vidéo en cours d’exécution) et, pour certains modèles, un driver intelligent qui offre une meilleure gestion des priorités réseau (QoS). R-45 Oui, à condition de posséder une bonne connexion N (débit soutenu de plus de 5 Mo/s sans perturbations).

verdict 45 : Vous lisez nos magazines pour vérifier que l’on ne dit pas trop de bêtises et songez à rejoindre l’équipe. On attend votre CV avec plaisir. 35-44 : Geek de compét’, vous êtes harcelé en permanence par des hordes d’admirateurs ayant besoin de conseils d’achat et d’appels au secours de femmes belles et célibataires, au matériel informatique récalcitrant. Comme nous, quoi. 25-35 : Amateur confirmé de PC fignolés aux petits oignons, votre montée sur la marche suprême ne tient pas à grand-chose. Relisez vos 104 anciens numéros de PC Update/Hardware Magazine et vous y serez ! 15-25 : Vous êtes déjà suffisamment aguerri pour basculer du bon côté de la force. Mais vous avez encore quelques loisirs ou diversions (femme, enfant, travail ?) qui vous empêchent d’être tout à fait au top. Poursuivez vos efforts ! Moins de 15 : Il faut bien commencer un jour ! Encore quelques années de lecture de vos magazines favoris et tout ira mieux ;)



Comprendre 30 ans de CPU

30 ans de CPU PC

2eme partie 1993 : naissance du pentium Thomas Olivaux

Après les fringants ancêtres dans Hardware Magazine n° 52, l’histoire des CPU continue avec le Pentium, processeur phare des années 90. (Re)découvrez les nombreuses innovations technologiques et le chemin parcouru depuis, sans oublier celles des outsiders les plus célèbres, comme le Cyrix 6x86 ou les AMD Athlon et Athlon 64 ! Y compris des benchs qui ne manqueront pas de vous surprendre.

F Sorti sur le tard, le Pentium MMX (à droite) est devenu le processeur bon marché face à un Pentium II très cher à ses débuts, un Cyrix à la traine (au centre). Le K6-2 (à gauche) était une alternative intéressante !

70 PC Update

ini les balbutiements des premiers processeurs au design fait sur papier avec des mois de relecture faute de conception assistée par ordinateur. Bye bye les escargots à moins de 10 MHz en 8 ou 16 bits. Exit les CPU sans cache de second niveau ! Si vous souhaitez en savoir plus sur les CPU qui ont fait l’histoire, dépêchez-vous d’acheter HM 52 (en kiosque jusque fin mai). Cette seconde partie de notre rétrospective CPU attaque avec le Pentium premier du nom, puce initiatrice d’une marque majeure pour Intel dont elle a été le pilier jusqu’en 2006. Mais cette période a aussi été celle où AMD était le roi des performances et le favori des gamers ! Apprêtez-vous à revivre toutes les innovations technologiques des 90 et 00. A l’heure de la vidéo HD, qui se souvient que les premiers P4 sont incapables d’afficher un site en Flash sans ramer, que les premiers PIII n’étaient même pas capable de décoder un DVD Vidéo ? Du Pentium 60 Au Core i7-980X, nous avons passé chaque génération au grill afin de constater l’évolution des performances. Surprises garanties !


Peu vendus, les premiers Pentium (60 et 66 MHz) étaient sur socket 4. Ce vieux 60 MHz qui porte les stigmates d’un radiateur collé trop fort, fait parti des premiers modèles qui sont bugés !

1993-1997 Pentium, naissance d’une légende En 1993, Intel dévoile le Pentium. Ce nom a été privilégié par rapport au 586 initialement prévu car, durant ses procès contre les concurrents qui s’acharnaient à produire des compatibles 386 et 486 sans licence, les tribunaux ont refusé le dépôt en tant que marque d’une simple série de chiffres. Intel sera bel et bien le seul à fabriquer du « Pentium ». Les deux premiers Pentium cadencés à 60 et 66 MHz ne révolutionnent le PC en rien sinon leur FSB à 60 et 66 MHz et démarrent difficilement. Atrocement chers (un Pentium 66 MHz vaut plus du double d’un 486 DX2 66 MHz), ils ne procurent pour ainsi dire aucun gain visible de performances, car les applications ne sont pas du tout optimisées pour la nouvelle architecture. Pire, le 486 DX4 100 MHz sorti en 1994 fait mieux pour moins cher. Ces deux modèles (nom de code P5) fonctionnent en 5 V sur le vieux socket 4. Ce CPU en avance sur son temps a connu, comme on le sait, un franc succès par la suite. Processeur superscalaire, ses deux pipelines complets exécutent deux instructions en parallèle par cycle d’horloge. La FPU grandement améliorée calcule jusqu’à 15 fois plus rapidement que celle du 486 ! Le cache revu et amélioré réduit

les temps d’accès mais aussi le coût de fabrication. C’est aussi le premier processeur à utiliser un bus mémoire de 64 bits. Rappelons que nos barrettes, produites en 2011, sont toujours sur 64 bits (bien qu’un contrôleur dual channel puisse en exploiter deux sur 128 bits). Toutes ces améliorations architecturales concentrées dans un stepping amélioré (le P54C, sur socket 5 à 3,3 V) ont finalement permis au Pentium de décoller. A part le Pentium 75 destiné à l’entrée de gamme, boudé en raison de son bus réduit à 50 MHz, les versions à 90 et 100 MHz se sont bien vendues. Un peu plus tard, en 1995, Intel grimpe à 120 MHz. Le P54C embarque 3,3 millions de transistors et mesure 163 mm². Cela souligne les progrès de la fabrication BiCMOS en 600 nm, en comparaison des tout premiers P5 dont 3,1 millions de transistors gravés en 800 nm occupent 293,92 mm². En 1996, c’est le P54CS qui prend la relève, avec une gravure à 350 nm. Avec cette finesse, la chaleur, devenue un vrai problème depuis les gros 486, se calme. Les fréquences peuvent alors s’emballer, avec des modèles à 133, 150, 166, puis 200 MHz. Le top pour s’éclater sous Duke Nukem 3D ! Début 1997, Intel améliore son Pentium en lui ajoutant un nouveau jeu d’instructions dédié aux applications multimédias, MMX. Les Pentium MMX (P55C) imposent le socket 7, mais tous les Pentium P54C et P54CS sur socket 5 sont également compatibles socket 7. Les premiers Pentium MMX sont gravés en 350 nm (reconnaissables grâce à leur emballage céramique, comme les premiers Pentium), mais la majorité de la production tourne en 2,8 V et adopte le package PPGA (Plastic Pin Grid Array). Les fréquences sont de 166, 200 et 233 MHz. Face à un Pentium II sorti très cher la même année, le Pentium MMX connaît un franc succès. Intel conçoit également des modèles spécifiquement pour les portables, jusqu’à 266 MHz sur le tard !

Le socket 7 est le dernier support multimarque, utilisé tant par Intel, qu’AMD et IBM/Cyrix.

La concurrence ne se croise pas les bras durant le règne du Pentium ! Surfant sur l’important parc de 486, AMD vend de nombreux 5x86 à 133 MHz et même 150 MHz, des processeurs inspirés du Pentium, mais destinés aux cartes mères 486. A partir de 1996, IBM et Cyrix qui ont conjointement sorti le 6x86 sur socket 7 grappillent de nombreuses ventes à Intel grâce à des prix très bas. Dans la majorité des applications, les 6x86 égalent les Pentium malgré une fréquence inférieure (exemple, P166+ à 133 MHz souvent devant un Pentium 166 MHz). Toutefois, lorsque les jeux utilisent massivement le calcul en virgule flottante avec l’explosion de l’affichage en 3D, les propriétaires de 6x86 déchantent, ce processeur étant plus de deux fois plus lent que le Pentium en la matière. L’ajout de quelques instructions peut sembler anodin, surtout à la sortie lorsqu’aucun logiciel n’en tire encore profit. Mais quelques mois plus tard, quand les premiers encodeurs MP3 optimisés MMX arrivent, le temps d’encodage d’un morceau de musique entre un Cyrix 6x86 P200+ et un Pentium MMX 200 MHz est carrément divisé par deux ! Pour la première fois, nous encodons de la musique plus vite qu’on ne l’écouterait. Que dire des vieux 486, qui ne sont même pas capables de lire ces MP3, à l’exception des rares DX4 100 MHz. Et de façon plus générale, il est intéressant de constater au travers de nos benchs

PC Update 71


Comprendre 30 ans de CPU

« Jusqu’à l’arrivée de Windows 95, les jeux et les programmes n’étaient que rarement optimisés en 32 bits »

modernes que le Pentium explose le 486, tout comme le 486 explose le 386, nos logiciels tirant pleinement profit des changements architecturaux. Pourtant, à leur sortie, les processeurs avaient du mal à s’imposer tant il était difficile de constater un progrès vis-à-vis de l’ancienne génération ! Les moins jeunes se rappelleront notamment les débuts particulièrement laborieux du Pentium, les modèles 60 et 66 MHz qui coûtaient atrocement cher et se faisaient régulièrement battre par le 486DX4 100 MHz, parfois même par le DX2 66 MHz. Dans Super Pi, qui tire à la fois profit des améliorations du CPU et du sousensemble mémoire (le bus est passé de 33 à 66 MHz du 486 au Pentium !), le temps pour 1 million de décimales chute de 1 heure et 10 minutes à 30 minutes à peine à la même fréquence CPU (66 MHz) ! Avec le MMX 233 MHz, ce même exercice est abattu en seulement 10 minutes.

1995-1997 Pentium Pro, le roi du 32 bits

Sensiblement plus gros que le Pentium, le Pentium Pro est le premier CPU PC a intégrer le cache L2 en son sein.

Reconnaissable à sa robe noire, le Pentium Pro 1 MB est un CPU rare.

72 PC Update

Durant les années 90, Intel diversifie ses activités. En plus des CPU, il fabrique de plus en plus de composants, notamment des chipsets depuis l’apparition du Pentium. Mais si la série principale des processeurs Intel domine outrageusement l’univers PC grand public et professionnel, les serveurs utilisés par les grandes entreprises, ainsi que les stations de travail des graphistes, sont rarement animés par du matériel PC. Sun connaît un franc succès avec ses SPARCstation et ses serveurs, sans oublier les stations DEC Alpha avec les processeurs du même nom. Il faut dire que les attentes ne sont pas les mêmes ! Alors que les PC découvrent à peine les joies du 32 bits grâce à Windows 95, tous les jeux étant conçus en 16 bits pour DOS, les stations de travail haut de gamme sont déjà en 64 bits et exploitent bien plus de mémoire. Afin d’inverser la tendance, Intel sort le Pentium Pro. Ce nouveau-né, qui s’inspire du Pentium, est entièrement optimisé pour exécuter du code 32 bits, la sortie de Windows NT et la multiplication des applications professionnelles 32 bits devenant un critère majeur. C’est le processeur qui inaugure l’architecture P6, décliné des années durant jusqu’au Pentium III inclus, et même après dans quelques processeurs mobiles jusqu’aux Core Duo. Le Pentium Pro se distingue du Pentium par l’apparition d’une seconde ALU (Arithmetic Logic Unit), l’unité de calcul principale. L’une est simplifiée au maximum pour accélérer les calculs les plus courants, tandis que la seconde, complexe, permet tout type d’opérations. Le Pentium Pro intègre également une FPU pour les calculs en virgule flottante, comme son aîné. C’est le tout premier processeur Intel à embarquer en son sein le cache L2, jusqu’ici 128 à 512 ko sur la carte mère. Selon les modèles, les Pentium Pro ont 256 ou 512 ko de cache, il existe même une version 1 Mo du Pentium Pro 200 sortie sur le tard (1997, reconnaissable à sa couleur noire). Réduisant drastiquement le temps

de latence pour l’accès à cette mémoire, c’est non seulement une façon de continuer à progresser en fréquence, mais c’est avant tout des gains de performances. Ce processeur connaît un franc succès, il sera remplacé en 1998 par le Pentium II Xeon. Quelques particuliers frimaient à l’époque avec un Pentium Pro, mais son optimisation pour le code 32 bits était telle qu’il était légèrement moins rapide qu’un Pentium standard en 16 bits, donc dans les jeux d’époque. Pour prouver sa supériorité en environnement 32 bits, nous avons constaté qu’il faut une petite minute de moins avec le Pentium Pro 200 (256 ko de cache L2) pour Super Pi 1 MB qu’avec le Pentium MMX 200 MHz (de 11 minutes et 30 secondes, nous baissons à 10 minutes et 37 secondes). Mais la mémoire cache a son importance ! Avec le Pentium Pro 200 modèle 1 Mo de cache L2, Super Pi est abattu en 8 minutes et 59 secondes, un gain de 15 %.

1997-1999 Pentium II, fini le socket ? Utilisant initialement le bus 66 MHz de son aîné, le Pentium II sorti mi-1997 est une sorte de superPentium MMX. D’abord cadencé à 233, 266 et 300 MHz, avec le nouveau jeu d’instructions MMX, il innove en intégrant du cache L2, apparu du temps des 486 sous la forme d’une barrette de mémoire placée sur la carte mère, proche du socket CPU. C’est d’ailleurs ce qui permet un tel accroissement de fréquence. Mais le coût de production d’un die géant capable d’intégrer les quelque 512 ko de cache L2 étant astronomique, Intel choisit de souder deux puces de 256 ko de cache juste à côté du die. Gêné par ce PCB trop gros pour un socket et souhaitant bloquer Cyrix et AMD qui utilisent sans vergogne le socket 7, Intel change totalement de format en faveur d’une cartouche. Le slot 1 est né. Impossible donc d’upgrader un PC Pentium vers le Pentium II. En raison de leur tarif, les premiers Pentium II se vendent peu, d’autant qu’ils ne peuvent compter que sur des cartes mères mortes d’avance, en raison de leur vieux chipset 440 FX (équipant le Pentium Pro, ancêtre du Xeon) et de son simple bus PCI. La vraie naissance du Pentium II en 1998 repose sur la sortie quasi simultanée du chipset 440 BX (introduisant le bus AGP pour la carte graphique, ainsi que le FSB 100 MHz) et des nouveaux Pentium II FSB 100, cadencés à 300, 350, 400 et, un peu plus tard, 450 MHz. Les premiers Pentium II sont gravés en 350 nm, les modèles FSB100 sont en 250 nm. Il y a 5,5 millions de transistors dans ce CPU, pas vraiment une révolution puisque le Pentium MMX emploie déjà 4,5 millions de transistors avec une gravure en 280 nm, mieux que les premiers PII ! Le surplus de performances du Pentium II ne sert vraiment qu’en 1997 avec l’arrivée du standard MP3 pour la musique. Alors qu’il faut plusieurs heures pour encoder en 128 kbps un album


CD sur un vieux 6x86 P200+, le Pentium II 400 MHz le fait presque en temps réel. Avec un bon overclocking, on rippe et compresse un CD plus rapidement qu’on ne l’écoute ! De plus en plus, bien que reposant désormais sur une carte vidéo 3D, les jeux tirent sur le CPU. Des titres mythiques comme Quake II ou Half-Life ne sont à l’aise que sur un PII. Pour l’entrée de gamme, Intel imagine en 1998 le Celeron. Ce Pentium II, initialement dépourvu de cache L2, offre des performances si déplorables qu’il récupère rapidement 128 ko. Ainsi équipé, il se vend, malgré le fossé qui le sépare d’un Pentium II (il se contente aussi du vieux bus à 66 MHz), car il coûte peu et se révèle excellent en overclocking. Bon nombre d’entre nous ont overclocké le célèbre Celeron 300A à 450 voire 504 MHz ! C’était s’offrir les performances d’un Pentium II 400 MHz pour le tiers du prix ! Pendant ce temps-là, AMD fait de la résistance sur le socket 7, devenu super 7 et avec un bus à 100 MHz, grâce aux processeurs K6-2 et K6-III. Mais, malgré son jeu d’instructions 3Dnow exploité par quelques outils multimédias et quelques jeux, les performances sont sensiblement inférieures à celles délivrées par le Pentium II. A parler de performances, le Pentium se comporte à peu près comme un Pentium Pro, avec des gains sensibles en encodage grâce aux instructions MMX. Mais si les chiffres progressent encore, pour pouvoir comparer avec les exemples précédents, Super Pi 1 MB ne réclame que 4 minutes et 48 secondes au PII 450 MHz, nous sommes encore loin de la puissance minimum requise aujourd’hui, un CPU de smartphone ou de netbook faisant sensiblement mieux. Par curiosité, nous avons installé Windows 7 (32 bits, pas le choix) sur un biPentium Pro 450 équipé de 768 Mo de mémoire vive, mais les CPU sont largués. Le simple fait d’être sur le bureau à afficher quelques fenêtres basiques, dont le gestionnaire des tâches, suffit à affoler les deux CPU à 100 % de charge.

1999-2001 Pentium III, mon amour AMD frappe fort avec l’Athlon Le Pentium III débarque dès le printemps 1999. Sorte de Pentium II vraiment abouti, il se distingue avant tout par une capacité à monter en fréquence et l’adoption d’un nouveau jeu d’instructions multimédias, SSE. Initialement vendu à 450 et 500 MHz, les fréquences se multiplient rapidement si bien que, fin 1999, nous avons déjà droit au 733 MHz. Comme pour le Pentium II, Intel propose une première mouture assez critiquable (Katmai, 250 nm), rapidement remplacée par un stepping bien plus performant (Coppermine, 180 nm) quelques mois plus tard. Le Coppermine existe en FSB100, mais il introduit également des processeurs FSB133, un bus permis par les nouveaux chipsets i820 et suivants, ainsi que la généralisation de la SDRAM PC133. Le succès est rapidement au rendez-vous, d’autant que bon nombre de cartes mères BX (vendues du temps des PII et des premiers PIII) supportent via overclocking les nouveaux PIII FSB133. Architecturalement parlant, le PIII se distingue très peu du PII, lui-même une évolution de l’architecture P6 introduite par le Pentium Pro et assez semblable au Pentium. Le PIII est en fait la quintessence de l’architecture P6, qui sera poussée jusqu’à son maximum de fréquence. En 2000, la guerre avec AMD fait rage. En effet, depuis fin 1999, l’outsider est revenu sur le devant

de la scène grâce à ses nouveaux processeurs, très performants : les Athlon (concurrent du PIII) et Duron (concurrent du Celeron). Pendant toute l’année, c’est à qui sortira en premier telle ou telle fréquence, avec pour duel de l’été, le passage du cap symbolique du gigahertz ! Bien qu’il ne soit pas capable d’en proposer en quantité immédiatement, c’est Intel qui gagne ce duel en coupant l’herbe sous le pied d’AMD, avec un communiqué de presse présenté un jour plus tôt que son rival. Même si nous officions pour des magazines aujourd’hui disparus, nous nous souvenons encore très bien de l’arrivée de la première machine à 1 GHz et de notre recueillement devant le chiffre fièrement affiché sur notre Iiyama 17’’ ! Un jour qu’on n’oublie pas, comme l’arrivée de la première 3DFX ou du premier lecteur DVD, le genre de journée où tout le monde s’agglutine dans le labo de test, généralement évité comme antre

Pour la première fois, Intel abandonne le socket. Pendant quelques années, nous avons connu les joies du faux contact au niveau CPU !

Performances Méthodes de bench Tout au long de l’article, les résultats de benchs sont à relativiser, car réaliser de telles mesures comparatives, sur 25 ans, tient de l’impossible. Bien que nous les avions sous la main, nous avons volontairement écarté les 8088 et 286, incapables d’exécuter du code 32 bits. Les tests s’étendent donc du 386 au Core i7, en passant par toutes les générations. Hélas, il est impossible d’utiliser le même OS sur toutes ces plateformes. Pour limiter l’impact, nous avons adopté Windows 98 du 386 au Pentium inclus et Windows XP du Pentium Pro au Core i7, excluant les optimisations 64 bits des processeurs les plus récents. Nous sommes parvenus à trouver quelques tests capables de tourner sur toutes ces machines, comme Super Pi, wPrime ou l’encodage MP3 avec Lame. L’utilisation de Cinebench R11.5 a été abdonné en raison de résultats incohérents sur certains vieux CPU. Nous avons également quelques tests pratiques,

comme la manipulation d’images sous Photoshop, mais nous avons dû nous résigner à ne pas les faire sur les machines les plus âgées. Si Photoshop 3 peut virtuellement tourner sur un 386, les traitements que nous faisons (manuellement pour le coup) sont bien trop lourds et irréalistes. Calculer Super Pi sur plus d’une semaine nous a suffi !

PC Update 73


Comprendre 30 ans de CPU

Sorti en slot 1 comme le Pentium II, le PIII est retourné au socket au bout d’un an.

Dès leur sortie à l’été 99, les Duron et Athlon socket A font un carton !

des geeks non récupérables. Façon IT crowd, série sur laquelle vous devez vous précipiter si vous lisez cet article sans que personne ne vous y ait forcé ! Cette même année, avec un Celeron qui n’a quasiment pas de mémoire cache, Intel revient en arrière en utilisant de nouveau un socket, le 370 (tiré du nombre de broches du processeur). Quelques mois plus tard, le Pentium III Coppermine ayant permis d’intégrer le cache L2 au sein du die (256 ko pleine fréquence CPU contre 512 ko semi-fréquence et finesse de gravure améliorée), le Pentium III abandonne à son tour le slot 1 pour le socket 370. Si ce format est plus facile à refroidir,

moins sujet aux faux contacts, qui n’a pas pesté à l’époque de devoir, encore une fois, se payer une nouvelle carte mère ? Alors quand Intel, fin 2000, a présenté le Pentium 4 et son socket 423, ce dernier a fait un bide total et la clientèle est restée fidèle au performant Pentium III, durant tout 2001 également. En 2001, le PIII Coppermine cède la place au PIII Tualatin, la version la plus aboutie. Celui-ci sera commercialisé jusqu’à 1,4 GHz et, dans bien des benchmarks, il devance le Pentium 4 1,5 GHz ! Au changement de millénaire, le besoin de puissance s’accroît, notamment avec l’explosion des applications multimédias et la généralisation de la vidéo. Dans un premier temps, les Pentium III (à partir de 600 MHz) permettent de lire des DVD sans recours à une carte de décompression MPEG-2. Ensuite et surtout, l’arrivée du format de compression MPEG-4 DivX forme toute une génération au transcodage, requérant des heures et des nuits de calcul sur un Pentium III avec un logiciel optimisé SSE, imaginez donc sur les machines plus âgées ! Nous avons vérifié ceci à l’aide de nos benchs récents. Mais le constat rappelle celui du Pentium II. Les progrès sont importants, les temps réduits, mais nous sommes encore loin de pouvoir utiliser un Pentium III au quotidien en 2011… quoique ! Pour illustrer le fossé qui

sépare un PIII d’un CPU moderne, ou pour illustrer le manque d’optimisations d’Adobe, dites-vous qu’un site en Flash, comme celui de nVidia avec ses grandes bannières, n’est pas fluide sur un Pentium III 733 MHz. Le CPU, sollicité à 100 %, ne parvient pas à afficher le bandeau Flash ! Pourtant, en 2000, un PIII 733 MHz faisait tourner Quake III et Counter Strike de folie ! Au-delà du gigahertz, les choses s’améliorent, bien que le Flash 720p reste une utopie… ça rappelle étrangement les Atom monocores ! Le N270 (monocore 1,6 GHz) tombe Super Pi 1M en 2 minutes et 18 secondes, avec de la rapide DDR2. Le bon vieux PIII 1 GHz en SDRAM y parvient en 2 minutes et 53 secondes, le PIII 1,4 GHz en 2 minutes et 3 secondes ! Alors l’Atom, pourri ? Un peu… pas tant que ça quand on considère qu’il se contente d’un TDP de 2,5 W. Le PIII 1,4 GHz a un TDP plus de 10 fois supérieur, 31,4 W.

2000-2006 P4, grandeur, gloire et décadence Le règne de l’Athlon 64 Comme tous les processeurs de la marque depuis le Pentium premier du nom, la première génération de Pentium 4 est un échec. Pourtant, contrairement aux Pentium II et III, le P4 est une vraie révolution technologique. Abandonnant l’architecture P6 au profit de la toute nouvelle Netburst, le P4 est tout d’abord incompris. En effet, sa conception décuple le potentiel de montée en fréquence, mais les latences liées à ses interminables pipelines en font un CPU à première vue moins efficace. De fait, à sa sortie, le Pentium III est régulièrement aussi bon, bien qu’il concède quelques centaines de mégahertz ! Alors qui irait payer plus cher pour ne rien gagner ? Les choses ne sont pas arrangées par le choix d’Intel d’imposer la mémoire RAMBUS, au prix extravagant et par deux barrettes, au minimum, s’il vous plaît. Cette dernière, effectivement très performante par rapport à la SDRAM, ne fait

Tianhe-1A Le supercomputer le plus puissant du monde Que ce soit pour des besoins de défense, de recherche ou de météo, les grandes entreprises et les nations se munissent régulièrement de nouveaux supercomputers, des ordinateurs géants et uniques surpuissants. Le classement évolue sans cesse, la 1re place étant détenue depuis octobre 2010 par l’ordinateur chinois Tianhe-1A. Ce dernier embarque 14 336 Xeon X5670 (6 cores, 2,93 GHz) et 7 168 nVidia Tesla M2050 (des sortes de GTX 470 avec 3 Go de RAM pièce). Bien que le chiffre de 2,566 pétaflops soit annoncé, difficile de se rendre compte des performances d’un tel monstre. Le FLOP, unité de comparaison des superordinateurs, correspond au nombre d’opération en virgule flottante réalisées en une seconde. Les calculs en virgule flottante incluent les nombres réels et sont bien plus com-

74 PC Update

plexes et longs à réaliser que sur des nombres entiers. Le top du top des PC d’aujourd’hui, équipé d’un Core i7-980X overclocké à plus de 4 GHz, n’atteint même pas les 100 Gigaflops ! Imaginons un calcul monstre de 1015 opérations (identiques, pour que la comparaison soit valables). Là où un vieux Pentium 4 3 GHz (6 Gflops) réclame un peu plus de 19 jours de travail intensif, le super Core i7-980x overclocké (95 Gflops) tombe le travail en seulement 29 heures ! De son côté, le supercomputer Tianhe-1A (2,566 Pflops) n’a besoin que de 4 petites secondes. Il est environ 27 000 fois plus rapide que le plus puissant des PC, snif… Autre nombre amusant : il coûte 20 millions de dollars par an à l’usage, en tenant notamment compte de l’énergie qu’il consomme (4,04 mégawatts !).


pourtant guère mieux que la DDR adoptée par AMD, pour un prix quatre fois supérieur. Les premiers Pentium 4 sont gravés en 180 nm (les PIII Tualatin étant déjà en 130 nm) et embarquent une quantité incroyable de transistors : 42 millions alimentés en 1,7 V, sur socket 423. Le Willamette est ensuite porté sur le socket 478, plus petit malgré son nom, avec des cartes mères équipées de chipsets compatibles SDR et DDR.

Qui se souvient des premiers Pentium 4 au socket 423 ? Bouh, que ce CPU est moche.

Mais tout change lorsque, en janvier 2002, Intel sort la seconde génération de P4, les Northwood. Ces derniers, gravés en 130 nm, chauffent beaucoup moins et s’overclockent beaucoup mieux. D’autre part, ils sont un peu plus rapides à fréquence égale et Intel a accepté de lâcher du lest sur la RAM, grâce au chipset 845E qui exploite, enfin, la DDR. Peu après, le bus à 100 MHz (FSB400, la notion de bus Quad Pumped étant apparue elle aussi avec le P4) est abandonné au profit du bus à 133 MHz (FSB533), décuplant encore le potentiel d’overclocking des modèles FSB400. Ainsi, des modèles comme le P4 2.0A (le A permettant de distinguer un Northwood d’un Willamette) deviennent mythiques en s’overclockant aisément à 2,75 GHz, jusqu’à plus de 3 GHz, avec un peu de chance et d’expérience. Durant les années 2002 et 2003, Intel domine aisément le marché grâce à un processeur au top et AMD, au contraire, peine à suivre avec un Athlon XP vieillissant et sensiblement moins rapide. Mais les choses s’inversent nettement en 2004. Au changement d’année, AMD propose le tout nouvel Athlon 64 (premier processeur 64 bits grand public, s’il vous plaît !) ultraperformant

En kiosque jusque fin mai

Chauffe extrême et performances qui stagnent, le Pentium 4 Prescott s’est malgré tout bien vendu.

Après quelques mois sur socket 754, AMD sort l’Athlon 64 sur socket 939, une série qui a marqué les esprits.

et Intel qui stagne autour de 3 GHz avec son Northwood sort une troisième version du P4 très décevante, le Prescott. Ce dernier, pourtant gravé en 90 nm, chauffe atrocement. Il est, en outre, un poil moins performant que le Northwood à fréquence égale, malgré le double de mémoire cache (1 Mo au lieu de 512 ko). Un comble ! Cette agonie durera presque deux ans, deux ans durant lesquels


Comprendre 30 ans de CPU

ni la DDR2 (dès 2004 chez Intel), ni le Pentium D (premier processeur dual core), ni des fréquences records jusqu’à 3,8 GHz n’attaquent la suprématie indiscutable d’AMD avec son Athlon 64 et son Athlon 64 X2, passés à la DDR2 mi-2005. Malgré les tares du Pentium 4 Prescott (remplacé, discrètement, par un bien meilleur P4 Cedar Mill en 2006), les ventes restent d’un bon niveau. Non seulement Intel jouit d’une réputation incroyable, mais la puissance proposée suffit à la plupart des applications, viser mieux n’étant pas une absolue nécessité. Les grandes marques ne veulent pas prendre de risques sur le haut de gamme et les megahertz font vendre. C’est sans doute la période la plus délicate et la plus médiocre d’Intel qui va cependant relever la tête spectaculairement. Disparu mi-2006, le Pentium 4 est aujourd’hui un ancêtre, dernier représentant de l’ère monocore malgré l’apparition du Pentium D les derniers mois. Pourtant, en excluant les usages les plus téméraires (jeux vidéo, full HD 1080p), Le Core 2 Extreme QX9770 (quad à 3,2 GHz) est le plus puissant Core 2 jamais produit.

un PC Pentium 4 tourne encore bien de nos jours, à condition d’avoir une bonne quantité de RAM et un disque dur récent. Travailler sous XP avec un PIII 3 GHz avec HyperThreading et 2 Go de RAM donne la même sensation de fluidité qu’un Core 7 et 4 Go de mémoire sous Windows Vista/7, pour des applications Internet et bureautiques. Pour parler chiffres, en restant sur notre exemple du Super Pi 1 MB, on passe de 35minutes sur le tout premier Pentium 60 MHz à juste 35 secondes (60fois moins !) sur le plus gros des Pentium, le 670 à 3,8 GHz. 60 fois plus puissant, 63 fois plus rapide en mégahertz et juste 8 fois plus énergivore (TDP = 14,6 W vs 115 W !) malgré les critiques que l’on a pu faire aux Prescott. Si un TDP de 115 W semblait énorme alors, tous les Core i7-900 ont un TDP de 130 W !

2006-2009 Core 2, la renaissance Après avoir traîné Netburst et son P4 pendant près de 6 ans (de novembre 2000 à mi-2006), Intel sort un tout nouveau processeur, le Core 2. Pour y parvenir, Intel a regardé… en arrière ! En effet, loin des pipelines à rallonge de Netburst, le fondeur s’est inspiré des dernières évolutions de la bonne architecture P6 à l’efficacité bien supérieure, dont la quintessence est symbolisée par les processeurs Core Solo et Core Duo pour portables (nom de code Yonah). Prenez le meilleur de P6, les prédictions de branchement et le

FSB haute performance de Netburst, quelques optimisations ici et là : voici Core, une architecture assez géniale ! Plus rapide, overclockable, moins gourmand en énergie et peu calorifique… le processeur Core 2 ne coûte même pas plus cher que le P4 qu’il supplante ! Intel frappe un gros coup… AMD ne s’en est toujours pas remis presque 5 ans plus tard ! Les premiers Core 2 sont gravés en 65 nm (comme le Pentium 4 Cedar Mill) et utilisent un bus accéléré à 266 MHz (FSB1066). Initialement vendus uniquement avec deux cores (Core 2 Duo E6000), ils sont rapidement complétés par des versions à quatre cores (Core 2 Quad Q6000). Pour la toute première fois depuis les débuts du microprocesseur, Intel abandonne la course à la fréquence qui fut pourtant le principal argument marketing durant 25 ans. Le géant mise tout sur l’optimisation de l’architecture et la multiplication des cores, et c’est un succès ! Le Core 2 Duo E6600 à 2,4 GHz fait mieux que le Pentium D 940 à 3,2 GHz, en chauffant deux fois moins. Le succès des Core 2 Duo est d’autant plus important qu’après un peu plus d’un an de vente de Pentium D et d’Athlon 64 X2, de plus en plus de logiciels tirent profit du dual core. Pour les quad core, en revanche, il a fallu patienter, seuls les programmes de compression ou de rendu étant d’emblée à même d’en jouir. Bien qu’il connaisse un succès sans faille et qu’AMD peine à sortir son processeur Phenom, Intel ne se repose pas sur ses lauriers et enchaîne les succès. Après une petite amélioration mi-2007 du Core 2 avec le passage au bus 333 MHz (FSB1333), Intel sort la nouvelle révision de son processeur phare à la fin de l’année, inaugurant la gravure en 45 nm (Core 2 Duo E7000 et E8000, Core 2 Quad Q8000 et Q9000). Pas besoin de s’étendre plus sur ces processeurs, suffisamment récents pour être connus de beaucoup d’entre nous, le parc installé étant encore très important. Néanmoins, en 2011, le Core 2 a fait son temps ! Si les Core 2 Quad de bonne fréquence (3 GHz et plus) permettent encore de jouer confortablement, l’écart avec la nouvelle génération est sensible. Pour les Core 2 plus âgés

Pentium 60

Pentium 233 MMX

Pentium II 450

Athlon 1 GHz (FSB100)

Pentium III 1 GHz (FSB 133)

Athlon XP 2000+ (TBred)

Pentium IV 2 GHz (Northwood)

Athlon 64 3000+ (Venice)

SuperPI 1 M

40m 25s

10m 37s

4m 49s

2m 26s

2m 49s

1m 25s

1m 30s

47s

SuperPI 32M

2j 21h

8h 51m

4h 2m

2h 14m

2h 26m

1h 2m

1h 19m

36m 25s

wPrime 32

1h 2m

15m 1s

7m 20s

2m 51s

3m 25s

1m 52s

2m 54s

1m 36s

wPrime 1024

1j 1h

7h 42m

3h 35m

1h 32m

2h 2m

58m 35s

1h 33m

52m 18s

Lame MP3

5m 2s

2m 18s

1m 8s

49s

48s

34s

35s

29s

Photoshop

25s

11s

8s

6s

6s

4s

4s

3s

76 PC Update


à la fois, permet d’accélérer automatiquement la fréquence du processeur (overclocking dynamique) suivant son usage et sa consommation. Le but premier étant de respecter l’enveloppe thermique prédéfinie, la fréquence accélère plus ou moins selon qu’on sollicite un seul core ou plusieurs. Nous vous invitons à relire notre récent dossier sur le Core de seconde génération, pour plus d’informations techniques au sujet des processeurs actuels d’Intel (publié dans PC Update n° 51).

plus courante est Itanium… d’Intel ! Ces processeurs nativement 64 bits sont présents dans quelques serveurs haut de gamme, chez HP notamment. Mais le coût de fabrication de ces puces spécifiques est trop important et la tendance à l’uniformisation s’accélère. De nos jours, lorsqu’un nouveau supercalculateur est présenté, ce n’est plus un Cray avec des CPU spécifiques, mais un cluster, une grappe de centaines, voire milliers de Xeon ou d’Opteron, quand il ne s’agit pas plutôt de solutions GPU à base de nVidia Tesla, si performantes pour les calculs massivement parallèles. Côté processeurs mobiles, malgré des progrès considérables, il reste néanmoins beaucoup à faire. Les smartphones réalisent des prouesses, lançant désormais des jeux plus beaux que ceux d’une Playstation 2. Pour beaucoup d’utilisateurs, une tablette pourra bientôt remplacer un PC portable. Dénominateur commun observé tant pour les processeurs fixes que mobiles, la multiplication des cores. Sur mobiles, nous arrivons enfin au dual, mais les prochains PC haut de gamme seront équipés d’octocores ! La guerre des CPU sera plus animée que jamais dans les prochaines années.

Le mot de la fin

et peu fréquencés, c’est devenu trop juste ! La comparaison en performances ne peut plus se faire avec Super Pi, bien que les résultats soient toujours en progrès. Ce logiciel, ancien, ne tire que dans un seul core, tandis que les processeurs passent à 2, puis 4 cores. Pour se rappeler la claque que fut le Core 2 à sa sortie, il faut se dire qu’un petit Duo E6300 (1,86 GHz) à 170 € (milieu de gamme façon Core i5 désormais) faisait mieux, dans la quasi-totalité des benchs, qu’un Pentium 4 570 (3,6 GHz) à 400 €, tout en chauffant nettement moins ! Avec l’explosion des applications et jeux multithreadés, c’est encore plus vrai de nos jours, en attestent les résultats du tableau ci-après.

A partir de fin 2008 Core i7, l’explosion AMD s’accroche avec le Phenom II Malgré un Core 2 en plein succès et une concurrence qui peine à suivre, Intel remet le couvert en sortant à l’hiver 2008 le Core i7-900 sur socket 1366. Ce monstre explose le Core 2 de près de 20 % à fréquence égale et introduit une nouveauté très séduisante, le Turbo Mode. Ce dernier, conçu pour mieux jouer de puissance et d’économies d’énergie

En 30 ans, on est passé de 1 à 6 cores (*6), de 29 000 à 1,17 milliard de transistors (*40 000), de 3 200 à 32 nm (*1 000) et de 4,77 à 3 800 MHz (*800). La consommation a aussi explosé, de quelques watts (même pas besoin de radiateur) à plus de 100 W en charge, quoique la tendance soit à la baisse. Les performances ont également suivi ces facteurs totalement délirants, comme les graphiques de performances l’ont montré. Jugez plutôt, Super Pi est 75 000 fois plus rapide à exécuter sur un gros Core i7 que sur un 386 ! De simple machine à écrire améliorée, le PC est devenu une usine à tout faire, permettant de profiter à fond des médias de tout type, de jouer, même de créer. L’avenir des processeurs se joue désormais sur le distinguo entre les CPU mobiles et ceux pour ordinateurs de bureau. Pour ces derniers, x86 est, de très loin, l’architecture principale mais son hégémonie va pour la première fois depuis 30 ans être sérieusement contestée par un outsider ambitieux, ARM (CF notre article dans HM52). Si les PC qui nous intéressent, les puissants, resteront l’apanage d’Intel et d’AMD, les PC grand public cantonnés à la bureautique et au surf gagneront sans doute à un passage à ARM, facilité par son adoption par Windows 8. Intel a bien du souci à se faire ou un gros travail à réaliser sur les Atom. A contrario, le monde des serveurs se remplit de x86, IBM Power et SPARC cédant peu à peu du terrain. La quatrième architecture la

Après le socket 1156… le socket 1155 ! Malgré cette complication marketing, les Core de seconde génération (à ne pas confondre avec les Core 2 !) font encore mieux que les précédents.

Pentium 4 3.0 GHz (Northwood)

Pentium 4 670 (3.8 GHz)

Core 2 Duo E6700

Core 2 Quad Q9550

Core i7-920

Phenom II X6 1100T

Core i7-980X

Core i7-2600K

48s

34s

17s

17s

15s

21s

11s

10s

42m 25s

35m 11s

17m 40s

18m 9s

12m 58s

20m 16s

11m 13s

8m 11s

1m 39s

1m 18s

25s

14s

9ss

8s

5s

8s

53m 17s

48m 28s

13m 31s

7m 24s

4m 52s

3m 47s

2m 36s

3m 52s

27s

24s

20s

12s

9s

8s

7s

8s

3s

2s

1s

1s

Moins d’1s

Moins d’1s

Moins d’1s

Moins d’1s

PC Update 77


Selection Software

Sélection Software Manuel Da Costa

Visitez virtuellement les musées du monde entier

Partagez votre imprimante dans les nuages

Reprenant le principe de Street View, Google Art Project (www.googleartproject.com) permet de découvrir les galeries d’art virtuelles de 17 musées du monde entier et regroupant près d’un millier d’oeuvres numérisées en haute résolution. Vous pourrez ainsi accéder directement à diverses parties des musées, découvrir leur histoire, zoomer et afficher les informations supplémentaires de chaque oeuvre et même collectionner vos oeuvres d’art favorites, à condition de posséder un compte Google Mail.

Encore au stade de bêta test, Google Cloud Print (www. google.com) est un service d’impression à la demande imprimant à partir d’un appareil mobile compatible HTML 5, vos documents Google Docs. Pour profiter de ce service qui n’est pour l’instant compatible qu’avec Windows (des versions Linux et Mac OS sont prévues), il suffit d’installer la dernière version de Google Chrome sur le PC sur lequel est connectée l’imprimante. Une fois le navigateur installé, ouvrez alors les options avancées, activez le service Google Cloud Print, puis renseignez votre identifiant et votre mot de passe Google. Ce qui aura pour effet immédiat de partager dans les nuages la ou les imprimantes détectées. Vous pourrez alors imprimer n’importe quel fichier Google Docs à partir de l’appareil de votre choix (smartphone, tablette tactile, netbook, etc.). A condition toutefois que votre PC soit allumé.des fichiers de la liste d’attente.

L’organisation de votre bureau Windows n’aura jamais été aussi facile Bien que son nom soit un peu exagéré, Winsplit Revolution (www.winsplit-revolution.com) n’en est pas moins un utilitaire gratuit incontournable sous Windows. A tel point qu’on se demande bien pourquoi Microsoft n’a jamais pensé à intégrer de telles fonctionnalités sous Windows 7, puisque Winsplit permet d’exploiter pleinement les moniteurs de grande taille, en organisant intuitivement les fenêtres actives en 2, 3, 4, 5 ou 6 parties sur toute la surface de l’écran. Son fonctionnement est très simple et s’appuie sur des combinaisons de touches faisant appel à des grilles de placement préenregistrées et personnalisables. Pratique lorsqu’on a beaucoup de fenêtres actives, la combinaison Ctrl + Alt + M permet, par exemple, d’organiser vos fenêtres actives sous la forme d’une mosaïque, alors que les combinaisons Ctrl + Alt + touches du pavé numérique permettent, au contraire, de les organiser suivant votre grille de placement. Vous pourrez également réduire, agrandir et redimensionner les fenêtres à votre convenance, ainsi que basculer chacune d’entre elles vers l’écran de votre choix, grâce au support du multi-écran.

78 PC Update


Graphic.ly

e

Contrairement à la plupart des logiciels dédiés aux comics qui ne sont que de simples lecteurs, Graphic.ly (www.graphicly.com) est une application HTML 5 sobre et élégante intégrant de nombreuses fonctions sociales. Vous pourrez ainsi découvrir, acheter, télécharger, lire et gérer votre collection numérique. Mais aussi échanger, discuter avec les autres utilisateurs de Graphic.ly (support de Facebook et Twitter) et consulter les flux RSS des sites et blogs dédiés à l’univers des comics. Son seul défaut est de n’être disponible qu’en anglais.

Hybryde S’appuyant sur Ubuntu 10.10, Hybryde « NirvanOS » (http://hybryde.org) est une distribution Linux vraiment surprenante puisqu’elle intègre une interface utilisateur « maître contrôleur » capable de basculer instantanément vers l’environnement graphique de votre choix : Gnome, KDE, Openbox, Lxde, Xfce et E17. Et ceci, sans qu’il soit nécessaire de fermer vos applications et votre session utilisateur. Une vitrine technologique qui se destine avant tout aux utilisateurs souhaitant découvrir les différentes interfaces utilisateur. Bodhilinux (www.bodhilinux.com) est, quant à lui, un fork minimaliste d’Ubuntu parfait pour les configurations anciennes, grâce à l’utilisation de l’interface utilisateur Enlightenment E17 qui allie performances, légèreté, modularité, ergonomie et même beauté.

Deux fonds d’écran différents sur deux moniteurs Impossible par défaut dans le cas du multi-affichage, DisplayFusion (www.displayfusion.com) permet, dans sa version gratuite, d’appliquer une image de fond différente sur chaque écran. Grâce à l’intégration des galeries d’images Web Flickr et Vladstudio, vous pourrez également rechercher par mot-clé et installer d’autres fonds d’écran HD ou non. Les plus exigeants pourront, quant à eux, se tourner vers la version Pro payante (25 $) qui offre de nombreuses autres fonctionnalités : personnalisation de l’écran login Windows, barre des tâches extensible à tous les écrans et entièrement personnalisable, boutons personnalisables, vignettes de prévisualisation visibles sur l’écran où se trouvent les fenêtres actives correspondantes, choix de l’écran à utiliser pour ouvrir une application, raccourcis clavier pour organiser/redimensionner les fenêtres, écran de veille différent pour chaque écran, etc.

Windows 7 Taskbar Thumbnail Customizer Très pratiques pour visualiser rapidement le contenu des fenêtres actives de votre bureau, les vignettes de prévisualisation sous Windows 7 sont, pour beaucoup d’entre nous, inadaptées à la taille de nos écrans. Un défaut que Windows 7 Taskbar Thumbnail Customizer (www.thewindowsclub.com) se propose de corriger puisque vous pourrez augmenter ou réduire la taille des vignettes, définir les marges, ainsi que l’écart entre chaque vignette. L’extension gratuite Tab Scope (https://addons. mozilla.org) pour Firefox 4 permet, quant à elle, d’ajouter des vignettes de prévisualisation à tous vos onglets. Mais pas seulement puisque d’un clic sur la vignette, vous pourrez épingler l’onglet durablement via la fonctionnalité Apps Tab, rafraîchir et agrandir son contenu, naviguer (page précédente et suivante) ou encore l’ajouter à un groupe d’onglets. De quoi faciliter la gestion de vos nombreux onglets. PC Update 79


geekitude

Par Manuel DA COSTA

Geekitude La TV connectée de demain aura-t-elle la peau des TV traditionnelles ?

Les TV connectées… on en parle beaucoup. Tellement d’ailleurs que les acteurs traditionnels de la TV française, TF1 en tête, ont déjà cru bon de hurler à la mort face à l’arrivée de cette révolution. Et ils ont bien raison de craindre l’avenir puisque la TV connectée, c’est la fin des tranches de pub à prix d’or sur quelques chaînes nationales et des programmes imposés. Mais pour l’utilisateur, c’est tout bénef. On « consommera la TV » comme on veut, sans subir les programmations, avec un contenu personnalisable. Et quelques poids lourds sont attendus. Apple via iTunes, bien sûr, et les rumeurs prédisent même une TV HD connectée vendue sous marque Apple d’ici fin 2011. Mais aussi Google dont les ambitions sont plus qu’affichées et qui rêve de faire de Google TV un poids lourd du secteur. Bien aidé en cela par YouTube qui veut développer des chaînes premium (on parle de 20 chaînes) avec chacune une programmation originale incluant des séries et même des films. Les réseaux Internet haut débit, comme les serveurs de YouTube, sont déjà parfaitement capables de streamer des contenus HD, ils le font déjà et la qualité est plutôt impressionnante. Techniquement donc, aucun problème. Certaines TV permettant même la connexion d’un clavier, bien plus pratique que la télécommande pour le surf. Pour l’heure, plusieurs modèles de TV connectées existent déjà. Mais les services restent embryonnaires. Connexion à YouTube, Dailymotion, Eurosport, la vidéo à la demande de Qriocity ou M6 Replay sur les Sony ; accès à YouTube, Picasa, Bloomberg et Eurosport pour Panasonic. Chez LG, c’est un accès au portail de divertissement Orange, à YouTube, Picasa et AccuWeather qui est permis. Samsung, enfin, via son portail SmartTV offre un accès à Facebook, L’équipe TV, YouTube, Les Echos, Twitter, Dailymotion, Boomerang, les archives de l’INA et bientôt à TF1 Vision. L’offre est bien là, mais encore assez timorée et manquant encore d’envergure. Les interfaces ont longtemps été des plaies à utiliser par manque d’ergonomie et de puissance. Et les accords marque-services sont assez pénibles. On préférerait un accès plus facile à plus de contenus. Ça devrait s’arranger avec les efforts de Google et d’Apple en la matière, des processeurs ARM plus puissants, et même Microsoft murmure que le si réussi Media Center pourrait prendre une forme « embarquée » à l’avenir. Mais dans les pays francophones, ça freine fort. Les chaînes de TV traditionnelles, craignant pour

80 PC Update

Techniques audionumériques en Homestudio

leurs revenus et pour leur business model, ont cosigné une charte dont l’objectif premier est de contrer l’influence de Google. Elles y demandent une réglementation des modalités d’affichage de contenus et de services sur les TV connectées. Elles demandent dans cette charte à conserver la maîtrise des contenus et de leurs tranches de publicité. En cela, nos chaînes nationales suivent parfaitement les chaînes américaines qui, elles aussi, rament à contresens, bloquant notamment la diffusion de leurs contenus sur les services de Google TV. Et en France, se posera de toute façon le problème du droit d’auteur brandi à bout de bras par les acteurs conventionnels. Pourront-ils pour autant stopper la révolution qui s’annonce ? Pour quelque temps oui, mais à terme, ils devront s’adapter.

Outre les nouveaux tutoriaux vidéo « Techniques créatives avec Adobe Photoshop » et « Apprendre Photoshop Elements 9 », Elephorm (www. elephorm.com) propose également une nouvelle formation dédiée aux « Techniques audionumériques en Homestudio ». De quoi découvrir les nombreux aspects du son (physique, décibels, phase, bande passante, rapport signal/ bruit, niveaux, signaux symétriques et asymétriques, échantillonnage, résolution, etc.), l’aspect matériel et logiciel, ainsi qu’un nombre de techniques de traitement du son (effets, mixage, mastering, égalisation, échantillonneur, etc.) indispensables pour se lancer dans la MAO ou Musique Assistée par Ordinateur. Et ceci, sans qu’il soit nécessaire d’investir dans des logiciels onéreux tels que Cubase, puisque les distributions 64 Studio (www.64studio.com) ou encore ArtistX (www.artistx.org) intègrent tous les outils nécessaires pour débuter.


HTC Sensation face à la concurrence Voilà une bien mauvaise nouvelle pour nos portefeuilles : HTC avec son Sensation vient de sortir un smartphone combinant tout ce que l’on peut attendre d’un tel engin en 2011 : processeur dual core, Android 2.3, mais surtout un superbe écran 4,3 pouces qHD, 540 x 960 pixels. Côté processeur, HTC a opté pour un Snapdragon dual core à 1,2 GHz épaulé par 768 Mo de RAM et 1 Go de stockage interne complété par un slot microSD. La caméra arrière passe à 8 mégapixels et est capable de filmer en 1080p à 30 FPS. Sur son site, HTC surnomme le Sensation « multimedia superphone ». On n’a pas de mal à le croire. Enfin, le Sensation est compatible avec les réseaux 4G, ce qui en Europe nous fait pour le moment une belle jambe vu le retard accumulé en la matière, le processus d’attribution des licences 4G étant prévu pour le mois prochain, pour des opérateurs pas franchement pressés de délaisser un très juteux 3G. De plus, dans l’Hexagone, il semblerait que les fréquences 4G viennent empiéter sur les fréquences de la TNT… et risquent de brouiller cette dernière. Bref, ce n’est pas gagné.

Face à la concurrence dual core

rencer le Tegra 2 1 GHz embarqué par les Atrix 4G, Optimus et consorts. Les quelques benchmarks réalisés sous Smartbench 2011 sur un prototype de HTC Sensation et comparant les deux puces montrent un Tegra 2 encore 25 % à 30 % plus performant, que ce soit en productivité (CPU) ou en jeu (GPU). L’écart est conséquent et semble confirmer les rumeurs à propos du couple CPU-GPU retenu par HTC pour ce Sensation. En effet, on aurait pu s’attendre à ce qu’un GPU Adreno 220 soit accouplé au CPU dual core. Dans cette configuration, le SOC est alors bien plus performant qu’un Tegra 2 dans des jeux comme Quake 3 (80 fps sans la vsync contre 50 pour un Tegra 2). A CPU identique l’Adreno 220 est donné comme plus de deux fois plus véloce qu’un Adreno 205.Or ici le recul en performances graphiques par rappor t au Tegra semble confirmer la présence d’un GPU Adreno 205, identique à ce que l’on trouve dans le HTC Desire couplé au Snapdragon 1 GHz monocore. Il semblerait donc que pour l’heure le duo dual core 1,5 GHz – Adreno 220 soit réservé au HTC Evo 3D. Ce choix associé à cette résolution élevée n’en fait pas un téléphone pour joueurs.

Toutefois, et c’est là une bonne nouvelle, le SOC Snapdragon dual core 1,5 GHz est presque 70 % plus rapide que le single core 1 GHz intégré dans le HTC Desire HD. Le passage d’un Desire à un Sensation devrait donc s’accompagner d’une fort belle sensation de gain de puissance. Reste enfin à miser sur un paramètre plus difficile à appréhender sur simple photo ; celui de la qualité de construction et de l’intégration logicielle. Sur ces deux points, HTC n’a jamais déçu et il n’y a aucune bonne raison pour que le Sensation fasse exception à cette tradition d’excellence.

Revenons un peu à notre HTC Sensation. Il fait une entrée remarquée dans le petit monde des smartphones en processeur dual core. En face, il trouvera pour l’heure le Galaxy SII de Samsung, l’Atrix et le Droid Bionic de Motorola et l’Optimus et l’Optimus 2X de LG, sans oublier l’EVO 3D déjà listé au catalogue HTC. Le Sensation l’emporte sur ses concurrents sur deux points : la version d’Android implémentée (Gingerbread alors que la concurrence tourne majoritairement sous Froyo), et la définition de l’écran (à égalité avec l’EVO 3D, l’Atrix 4G et le Droid Bionic). Certains objecteront que le qVGA est encore inférieur au Retina d’Apple. 100 pixels de moins dans la largeur. C’est vrai. Mais il y a fort à parier que sur une si petite taille d’écran, la différence ne soit pas visible à l’oeil nu ; sans oublier qu’un peu moins de pixels à gérer allégera la charge du SOC, ce qui serait a priori plutôt bienvenu. De plus, si la définition du Sensation est excellente, ce sont toujours les Coréens qui disposent de la meilleure qualité de dalles LCD avec le Super AMOLED Plus de Samsung sur son Galaxy II et l’IPS sur les Optimus de LG. Quant au stockage, ce sont Samsung avec le Galaxy II et Motorola avec l’Atrix et le Droid Bionic qui se montrent les plus généreux, en proposant 16 Go de stockage interne, en plus du slot microSD.

Snapdragon Dual Core vs Tegra 2 L’ u n e d e s d o n n é e s l e s p l u s a t t e n d u e s lorsqu’on lance un smartphone dual core est, bien entendu, les performances du SOC. Or, en la matière, c’est une semi-déception. Déception car les performances CPU-GPU du Snapdragon 1,2 GHz ne semblent pas en mesure de concur-

PC Update 81


geekitude

Spotify débarque sur l’ampli Onkyo TX-NR609 Désolé pour les amateurs de bon son et de streaming qui viennent d’acheter un Onkyo TX-NR608 (comme deux membres des cette rédac ;) ). Ce dernier ne permet pas de recevoir les flux Spotify. Alors que le TX-NR609, si. C’est moche. Cet ampli Onkyo est le premier de type HC à supporter le service de streaming audio Spotify. Et avec un peu de chance, Onkyo reverra bientôt son app iOS pour lui permettre de se passer d’un écran TV pour parcourir les 10 millions de titres streamés à 320 kbps par Spotify… et tant qu’on y est une appli Android serait également bienvenue. Si vous n’avez pas l’intention d’investir dans un ampli 7.2, vous pourrez également profiter des flux Spotify sur d’autres plateformes. Logitech et son Squeezebox sont déjà compatibles, ainsi que les systèmes hi-fi sans fil Sonos (via une mise à jour de leur firmware), ainsi que sur iOS, Android, Windows Mobile et même Nokia via une app spécifique à chaque plateforme.

Le Commodore 64 renaît de ses cendres

Voilà un titre qui fait chaud au coeur des geeks trentenaires qui ont connu les premiers ordinateurs sans OS, la programmation en Basic, les jeux sur cassettes et les graphismes vert et noir. Il est désormais possible de racheter une réplique parfaite du mythique Commodore 64. Réplique, à l’extérieur. On retrouve le coloris taupe de l’original. Le clavier est à présent fourni par Cherry, reprenant le mécanisme original des claviers IBM et leur cliquetis si particulier. La forme des touches, leur couleur et les décalcomanies sont à l’identique de l’original.

Look ancien, coeur moderne Mais l’intérieur de la bête est résolument moderne. Sous le clavier, se cache une carte mère mini-ITX embarquant un Atom 525 dual core et un chipset nVidia ION 2. En standard, il est livré avec 2 Go de DDR3, extensibles à 4 Go. Sur la gauche du « PC », un lecteur optique fait son apparition, alors que sur la droite, on voit fleurir un lecteur de cartes multiformat. Sur l’arrière, la connectique est elle aussi dans l’ère du temps avec une sortie HDMI, un DVI, un VGA,

quatre USB 2.0 et les connectiques PS/2 pour le clavier et la souris qui seront utiles si vous avez une vieille souris à boule à y connecter. Le nouveau Commodore 64 dispose aussi du Wi-Fi N. Il est donc facilement reliable à un réseau et à une TV récente.

Emulation Il a été prévu par le concepteur de pouvoir utiliser ce C64 nouveau pour rejouer à tout un tas de vieux jeux 8 bits d’époque. Une icône C64 dans le menu de boot lancera un Ubuntu 10.04 chapoté par un émulateur, mais le constructeur s’engage à envoyer Commodore OS 1.0, l’émulateur et un pack de jeux d’époque, dès que le développement de l’ensemble sera terminé.

Configurations Le meilleur dans l’histoire, c’est qu’il existe cinq versions disponibles à la vente. La plus chère, le C64x Ultimate, coûtera tout de même 895 $ avec un lecteur BR, un HDD de 1 To, 4 Go de DDR3. Mais on pourra également acheter pour 250 $ le simple barebone : le C64 vide, dans lequel on montera soi-même la configuration que l’on veut ! Si la ventilation le permet, il sera donc possible d’utiliser des cartes mini-ITX pour des CPU un peu plus puissants… Woow !

Commander Le bruit tournait depuis assez longtemps mais personne n’y croyait vraiment. C’est une société nommée Commodore USA qui a racheté les droits relatifs au Commodore 64 et qui a commercialisé début avril cette réplique parfaite de l’ancien C64. Le succès a été tel que les stocks ont été épuisés en quelques heures. Prochain réassort à surveiller de prêt ! Si le coeur vous en dit, vous pouvez tenter d’en acheter un sur www.commodoreusa.net, la société livre dans le monde entier.

82 PC Update


Girl Power !

Anthologie du franponais

Réputé pour ses ouvrages « historiques » retraçant le monde du retrogaming, Pix’n Love (www. editionspixnlove.fr) n’en finit pas de nous étonner avec le quatrième volume des Cahiers du jeu vidéo. Intitulé Girl Power ! et dirigé par la game designer Sandra Rieunier-Duval, l’ouvrage est une véritable analyse couvrant certaines questions que nous avons pu nous poser, sans oser le dire à propos du rôle et de l’importance de la femme dans les jeux vidéo : qu’est-ce qui nous excite autant, les origines des personnages féminins au Japon, le sexe du gameplay, qui a peur de Bayonetta, pourquoi les femmes sont-elles méchantes, etc. Véritable oeuvre d’art dans sa mise en pages, drôle et bourré de clins d’oeil, Girl Power ! est assurément un must à seulement 16 euros.

Poursuivons dans l’insolite et le désopilant avec l’Anthologie du franponais. Un ouvrage écrit et édité par Omaké Books (http://omakebooks.com) qui couvre sur 136 pages quelques maladresses involontaires de la part de nos amis japonais avec la langue de Molière (mais aussi les Français avec le japonais) sur les objets les plus ordinaires de la vie courante : enseignes de magasins/établissements, tee-shirts, papeterie, cosmétiques, pâtisseries et bien d’autres encore. L’ouvrage est un savoureux mélange de photos et de commentaires survoltés d’un Florent Gorges et d’un Mizuya qui n’ont pas manqué de nous rappeler qu’à l’image du franponais, le japlish (ou l’art de confondre le L avec le R) était la langue la plus utilisée après le japonais, bien sûr. Ce qui a notamment donné lieu à une anecdote mondialement connue concernant le général MacArthur, mais nous n’en dirons pas plus. Saviez-vous, pour finir, que les publicités Tchin Tchin d’Afflelou amusaient beaucoup les Japonais ? Sans doute parce que tchin tchin signifie zizi dans leur langue.

Comment devenir une star des médias sociaux Alors que nous n’avons pas manqué l’occasion de nous moquer de la fashion attitude de Benji qui a osé dépenser le prix d’un SSD dans un jean, notre air moqueur s’est rapidement mué en soupe à la grimace, en découvrant toutes les babes du CeBIT 2011 avec lesquelles il a fièrement posé. Et encore plus en découvrant que monsieur est maintenant une star sur Facebook. C’est donc sans concession que nous nous sommes rué sur le livre Comment devenir une star des médias sociaux aux éditions Quebecor (www.edquebecor.com). De quoi découvrir tous les rouages secrets pour propager nos messages à travers Twitter et Facebook, accumuler des millions de fans et ainsi accroître notre popularité grâce aux conseils simples et parfois drôles prodigués dans cet ouvrage.

Le Guide : Meilleures applications Android Devant le flot incessant d’ouvrages dédiés à l’iPhone et à l’iPad, les utilisateurs Android que nous sommes ont enfin droit à un livre. Et pas n’importe lequel puisque ce dernier n’est pas destiné aux développeurs mais aux utilisateurs, en regroupant sur 348 pages les meilleures applications classées en 18 catégories, testées et sélectionnées par l’auteur Patrick Beuzit. Chaque application y est ainsi clairement décrite et offre en plus un code QR qui une fois scanné à l’aide de votre smartphone, permet de télécharger et d’installer facilement l’application. Une excellente base pour tous ceux qui ignorent ce qu’on peut faire avec un smartphone Android, mais aussi un livre qui risque de très vite devenir obsolète à cause des nouvelles applications plus riches qui sortent régulièrement. L’auteur promet néanmoins des mises à jour régulières du livre.

Modding : découpe d’un motif

S’il est courant de découper une porte latérale pour installer une fenêtre en plexiglas, dans le but de mettre en valeur les composants ou un watercooling, vous obtiendrez un plus bel effet en découpant un motif, à l’image du mod Silver Dragon « DangerDen » réalisé par Ulysses Cazuqyel (http://forums.bit-tech.net). Une pratique qui n’est pas difficile à réaliser mais qui demande beaucoup de patience, de l’application et peu d’outils : un Dremel, des disques à tronçonner pour la découpe des métaux (préférez les modèles en fibre de verre renforcée), des lunettes de protection et une lime. Si vous prévoyez de découper des motifs compliqués, ajoutez une fraise en carbure de tungstène de 3,2 mm. Protégez ensuite la surface à découper à l’aide d’un ruban adhésif de masquage peinture, pour ensuite imprimer le motif à découper. Réglez ensuite le Dremel à vitesse moyenne, puis à l’aide d’un disque à tronçonner, commencez par créer de petits sillons à environ 1 mm des contours. Les sillons limiteront le risque de dérapage du Dremel en agissant comme des guides, alors que la marge de 1 mm assure une découpe réussie du motif, les finitions (arrondis, ébavurage du métal, etc.) s’effectuant à l’aide de la lime ou de la fraise. Puis retirez le ruban adhésif et enfin, nettoyez le panneau à l’aide d’un chiffon et d’eau savonneuse. A l’aide d’une plaque d’acier, d’alu ou de plexiglas, vous pourrez même réaliser des grilles pour ventilateurs, radiateurs de watercooling et même découper le dessus d’un boîtier.

PC Update 83


pratique : Amahi

Amahi un serveur personnel gratuit sur mesure Alors qu’un NAS se veut une solution prête à l’emploi, un serveur personnel impose l’installation de chaque application. Un bien maigre sacrifice comparé à l’extrême modularité offrant nombre de fonctionnalités selon vos besoins. Un exercice dans lequel Amahi, un serveur domestique libre et gratuit s’appuyant sur la distribution Linux Fedora, brille particulièrement.

A

l’heure où nous possédons souvent plus d’un PC à domicile, en plus des nombreux autres périphériques multimédias (smartphone, console de salon, baladeur audio/vidéo, etc.), il devient quasiment indispensable de centraliser les données numériques. Ceci afin d’éviter la redondance inutile de vos données sur chacun des appareils et de les sécuriser. Des besoins auxquels répond parfaitement un NAS, puisque vous pourrez protéger, organiser et partager vos données, vos fichiers multimédias, sauvegarder vos données, surveiller votre maison, partager votre imprimante multifonction, héberger un serveur FTP, un site Web/blog, un album photo, gérer vos téléchargements, etc., que ce soit à travers votre réseau local ou le Web. En plus d’offrir les mêmes fonctions, le serveur personnel Amahi fournit davantage de fonctionnalités et de possibilités d’upgrade. Contrairement à FreeNAS ou n’importe quel autre NAS, vous ne serez, par exemple, pas limité par le nombre de disques durs. D’autant plus qu’Amahi offre avec la technologie Greyhole, une alternative libre et gratuite à la fonction Drive Extender de Windows Home Server v1.

Amahi intègre par défaut une solution VPN prête à l’emploi.

84 PC Update

Manuel Da Costa

1

A l’image du JBOD (Just a Bunch Of Disks), elle ne propose aucun gain de performances, mais crée un disque virtuel à partir de la totalité de l’espace d’une grappe de disques de différentes capacités. Mais la comparaison là car si le JBOD permet de créer une grappe de plusieurs disques durs, la technologie Greyhole permet de mélanger différents supports de stockage (disques durs, clés USB, disques externes FireWire/USB/eSATA, cartes mémoire, etc.) pour créer une grappe. De plus, la technologie Greyhole permet de sécuriser les données en ajoutant non pas des blocs de parité sur chaque disque mais en ajoutant une copie de vos données sur un autre disque de la grappe. Mais contrairement au RAID 1 ou 5 qui dupliquent l’intégralité des données contenues sur la grappe, vous pourrez non seulement choisir quelles données protéger mais aussi choisir le nombre de copies que vous souhaitez effectuer. Greyhole offre ainsi plusieurs avantages. En cas de panne disque, aucune reconstruction de la grappe n’est nécessaire et vos données restent ainsi accessibles. De plus, si vous ôtez un disque de votre grappe Greyhole pour le connecter sur un autre PC, vous pourrez accéder aux données présentes sur le disque. Notez, pour finir, que la technologie Greyhole se limite au stockage de vos données. Il est, par conséquent, impossible d’installer votre système d’exploi-


2

« En plus de rivaliser sans mal avec Windows Home Server, Amahi permet d’économiser le prix d’une licence Microsoft »

3 tation sur la grappe. Amahi supporte également les niveaux de RAID 0, 1, 0+1 et 5, tant sur le plan matériel qui est plus difficile à mettre en oeuvre sous Linux, que sur le plan logiciel. Parmi les autres avantages offerts par Amahi, citons la possibilité d’installer un serveur de jeux compatibles Linux (Battlefield 2, Call of Duty 4 Modern Warfare, Half-Life 2, Team Fortress 2, etc.) pour vos parties de réseau local, d’héberger un serveur mail, un serveur de messagerie instantanée (TeamSpeak, Ventrilo, Mumble, IRC, etc.) ou encore un serveur de flux RSS. Vous pourrez également héberger un agenda complet, un wiki, héberger un système Intranet ou une plateforme collaborative pour organiser et synchroniser votre travail, partager vos contacts et vos notes, ajouter une ou plusieurs cartes tuner TV pour peu qu’elles soient compatibles avec Linux (www.mythtv.org), afin de gérer vos enregistrements TV à distance et diffuser la TV sur votre PC, smartphone, tablette… Bref, Amahi offre d’innombrables fonctionnalités sur mesure et voici comment l’installer.

L’installation A l’instar de Windows Home Server, Amahi (www.amahi.org) requiert une configuration minimale assez légère : processeur 1 GHz, 512 Mo de RAM, 4 Go d’espace disque, une carte réseau 100Mbit/s, mais aussi un lecteur DVD puisqu’il n’est, pour l’instant, pas possible de créer un support USB amorçable pour installer Amahi. Une installation qui se déroule suivant trois étapes, à commencer par l’ouverture d’un compte utilisateur sur le site d’Amahi, indispensable pour obtenir un code d’installation (1), suivie par le déploiement de Fedora 14 qui ne présente pas de difficultés particulières et qui est la seule distribution Linux supportant officiellement Amahi (une version pour Debian en cours de test existe). Si vous débutez toutefois avec un système GNU/Linux, nous vous recommandons d’utiliser l’option Utili-

A l’image de Windows, il faut utiliser une table des partitions GPT pour supporter les partitions supérieures à 2,2 To sous Linux.

ser tout l’espace du disque, qui une fois le disque sélectionné, aura pour effet de créer automatiquement trois partitions : /boot (informations nécessaires au démarrage), / (partition dédiée au système et aux programmes) et SWAP (mémoire virtuelle). Si vous souhaitez, au contraire, partitionner votre disque manuellement, n’hésitez pas à consulter les tutoriaux d’aide disponibles sur le wiki d’Amahi (http://wiki.amahi.org). Puis choisissez et retenez bien le nom de l’utilisateur root (superutilisateur) et son mot de passe, avant de cliquer sur le bouton Add additional software repositories, afin de saisir le nom de la source des dépôts Amahi, de sélectionner le type de la source HTTP/FTP et de saisir l’adresse http://f14.amahi.org, avant de finaliser l’installation de Fedora 14. Une fois Fedora 14 installé et démarré, lancez l’exécutable Amahi Installer qui est sur le bureau, puis saisissez le code d’installation (2), avant de redémarrer votre serveur HDA (Home Digital Assistant) une fois l’installation terminée (3).

La configuration Comme n’importe quel NAS, l’administration d’un serveur HDA Amahi s’effectue via n’importe quel navigateur Web, à l’aide de l’adresse http://hda. Pour mettre en oeuvre la technologie Greyhole, commencez par ouvrir un termi-

PC Update 85


pratique : Amahi

4

6

7

nal root sur le serveur. Il faut pour cela ouvrir un terminal (menu Applications/ Outils système), puis saisir la commande su suivie du mot de passe root, pour obtenir les privilèges administrateur. Saisissez maintenant la commande yum -y install pmount fuse fuse-libs ntfs-3g gparted util-linux-ng qui a pour effet d’installer divers outils système absents par défaut et pourtant indispensables. Lancez ensuite GParted (menu Applications/Outils système) et utilisez le système de fichiers ext4 pour formater tous les supports de stockage que vous souhaitez utiliser avec Greyhole. Afin que ces derniers puissent être reconnus et être exploitables par le serveur, saisissez la commande hda-diskmount dans un terminal root. Vous obtiendrez un message ressemblant à notre capture ci-contre (4) et vous devrez surtout retenir les lignes suivantes : Mounted /dev/sdb1 as ‘/var/hda/files/drives/drive9’ (read-write) UUID=111a0502-8031-48b3-88e7-022280530d93 /var/hda/files/drives/ drive9 ext4 defaults 1 2 Pour une raison que nous ignorons, tous les disques ajoutés ne sont pas automatiquement montés lors de chaque démarrage du serveur HDA, c’est-à-dire qu’ils ne seront ni visibles ni exploitables. Pour corriger ceci, démontez chacun des disques que vous venez de monter, à l’aide de la commande umount /var/hda/files/drives/drive9, en prenant soin d’adapter les variables à votre configuration. Editez maintenant le fichier fstab qui est la table des différentes partitions et systèmes de fichiers

5

86 PC Update

sous Linux, à l’aide de la commande nano /etc/fstab. Puis à la suite de la dernière partition affichée, ajoutez les lignes UUID=111a0502-803148b3-88e7-022280530d93 /var/hda/files/drives/drive9 ext4 defaults 1 2 qui correspondent à chacun de vos lecteurs, avant d’enregistrer les changements et de refermer l’éditeur (5). Puis saisissez, pour finir, la commande mount –a pour monter tous les disques ajoutés.

Les partages Le reste de la configuration est bien plus aisé. Vous pourrez ainsi créer différents comptes d’utilisateurs, via le panneau d’administration et l’onglet Utilisateurs, et créer ensuite les répertoires que vous souhaitez partager. Dans l’onglet Partages, commencez par sélectionner Groupement de disques, avant de sélectionner les disques qui formeront la grappe Greyhole (6), en prenant soin de ne surtout pas utiliser celui qui contient le système. Modifiez, si besoin, le nom du groupe de travail dans les paramètres pour qu’il corresponde à celui de votre réseau domestique. Puis créez ensuite les répertoires à partager, en prenant soin de configurer les permissions d’accès pour chacun des utilisateurs,

Les partitions de plus de 2.2 To Pour ajouter le support des partitions de plus de 2,2 To sous Amahi, vous devrez non seulement créer une table des partitions GPT (GUID Partition Table) via le menu Périphérique de GParted, mais aussi modifier le fichier hda-diskmount, à l’aide de la com-

mande nano /usr/sbin/hda-diskmount à saisir dans un terminal root. Repérez la section #Now for the real work et la ligne drivesext= puis remplacez grep –i ‘Linux’ par egrep –iw ‘Linux|GPT’. Un oubli pour le moins étrange de la part des développeurs d’Amahi.


« Amahi n’est officiellement supporté que sur Fedora 14. Au même titre qu’un NAS, il s’administre à partir d’une interface HTTP »

9

Une fois connecté à votre compte, le site d’Amahi permet de visualiser l’état de votre serveur à travers le Web.

mais aussi sans oublier de cocher la case Utilise le groupement de disques, afin d’utiliser la grappe Greyhole. Pour finir, indiquez le niveau de duplication des données si vous souhaitez sécuriser le contenu du répertoire partagé (7).

La configuration réseau Par défaut, les serveurs Web Apache, DHCP, MySQL, Samba et OpenVPN sont activés et Amahi est donc une solution clés en main. Amahi intègre même par défaut une adresse DNS dynamique facilitant l’accès à votre serveur depuis l’extérieur, à condition néanmoins d’attribuer une adresse IP fixe à votre serveur, via l’onglet Réseau/IP statiques, en renseignant le nom, l’adresse IP choisie, ainsi que l’adresse MAC du contrôleur réseau. Dans ce même onglet, profitez-en pour activer la fonction WOL (Wake On LAN) qui permettra de démarrer votre serveur à distance (8). Il faut, bien sûr, que votre contrôleur réseau et le BIOS de votre machine soient compatibles, puisqu’il est en plus nécessaire d’activer les fonctions ACPI et WOL dans le BIOS, sans oublier de rediriger le port de votre routeur vers votre serveur, en utilisant le protocole UDP. Vous devrez ensuite éditer le fichier rc.local qui est un script s’exécutant lors de chaque démarrage du serveur, à l’aide de la commande nano / etc/rc.local dans un terminal root, avant d’ajouter la ligne ethtool –s eth0 wol g. Une fois l’adresse MAC du contrôleur réseau de votre serveur et son adresse IP en votre possession, vous pourrez réveiller votre serveur via certains sites Web tels que Wake on LAN (www.wakeonlan.net), ou bien utiliser un programme tiers tel que WakeOnLan sous Windows (www.dipisoft.com), iWOL sous iPhone/iPad (http://itunes.apple.com), gWakeOnLan sous Linux (http://code.google.com) ou encore Wol Wake on Lan Wan avec Android (https://market.android.com). Une fois l’adresse IP fixe attribuée, vous devrez, bien sûr, désactiver le serveur DHCP via l’onglet Paramètres/Serveur (9). La dernière particu-

8

larité d’Amahi est d’intégrer une solution VPN, qui ne nécessite qu’une simple redirection du port UDP1194 de votre routeur, vers le serveur Amahi, pour être fonctionnelle. Vous pourrez alors accéder à votre serveur de manière totalement privée et sécurisée à partir du Web et à l’aide d’un client VPN.

Les applications Il existe deux façons d’ajouter de nouvelles fonctionnalités à votre serveur. La première est la plus simple et permet, via l’onglet Applications du panneau d’administration, de découvrir et d’installer de nombreuses applications payantes et gratuites en un seul clic. Amahi étant relativement jeune, il manque encore certaines applications, à l’image d’un gestionnaire de la consommation, d’un gestionnaire de contenus media center, d’un panneau d’administration avancée offrant des possibilités de configuration et de maintenance plus poussées, mais aussi la possibilité d’installer/piloter simplement et à distance une application qui ne serait pas présente dans le catalogue Amahi, Linux bénéficiant d’une logithèque très étendue. Un constat qui devrait très rapidement s’améliorer puisqu’Amahi attire toujours plus de contributeurs et de développeurs, à tel point que la liste des applications en phase de bêta test et donc encore indisponibles au grand public, ne cesse de s’enrichir. De quoi rivaliser très sérieusement avec Windows Home Server de Microsoft qui est payant.

PC Update 87


pratique : flashage

N’ayez plus peur du flashage mettez à jour SSD, carte mère, carte graphique Pour bénéficier de nouvelles fonctionnalités, de corrections de bugs ou encore de meilleures performances, le flashage est parfois nécessaire. Nous détaillons ici cette manipulation parfois compliquée et risquée, mais pourtant si utile.

Benjamin BOUIX

T

ous les composants électroniques font appel à une première couche logicielle, un microprogramme intégré, couramment appelé firmware, qui constitue un des intermédiaires entre le matériel et les logiciels via le pilote. C’est le code le plus proche du hardware et il est absolument indispensable. Si, par essence, le hardware ne peut être modifié, son comportement peut être adapté grâce au firmware. La mise à jour de ce petit bout de code est donc souvent très utile. Flasher un firmware est ainsi depuis toujours une pratique courante pour corriger certains dysfonctionnements, ajouter une fonction ou une compatibilité. Si les constructeurs ont fait beaucoup d’efforts sur ce composant, l’opération reste assez mal documentée, parfois risquée ou fastidieuse et pourtant, requise sur certains périphériques, à commencer par les SSD, les disques durs, les cartes graphiques ou les graveurs. S’il est parfois possible de s’en tirer sous Windows avec une interface accueillante, c’est très rarement le cas et il faut bien souvent tout faire sous DOS avec des supports bootables et lignes de commandes. Nous détaillons donc la marche à suivre afin que votre matériel donne le meilleur de lui-même ! Le firmware est stocké sur de la mémoire, en général non volatile, c’est-à-dire qui conservera les informations même si elle n’est plus alimentée électriquement. La PROM ne peut être programmée qu’une seule fois, alors que l’EPROM peut être effacée et reprogrammée. Cette opération nécessite toutefois de la retirer de

Les EEPROM amovibles présents sur certaines cartes mères permettent de procéder à un flashage à chaud.

88 PC Update

Si vous n’attendez aucune nouvelle fonctionnalité du firmware, et que le composant fonctionne parfaitement, il est inutile de flasher.

l’appareil. L’EEPROM permet, en revanche, d’être effacée électriquement, c’est donc elle qui est utilisée sur la plupart des appareils modernes, dont on peut facilement modifier le firmware. Le BIOS des cartes mères ou des cartes graphiques est un ensemble de fonctions exécutées au démarrage, il se distingue des firmwares par cette capacité d’exécution de code. C’est donc une sorte d’hybride entre software et firmware.

Effacer et reprogrammer Lors de la modification du firmware, l’EEPROM contenant les données va être effacée, puis reprogrammée. Puisque le composant est sous tension, il sera chargé ailleurs (par exemple, dans la RAM pour un PC) pour qu’il continue à fonctionner. Néanmoins, en cas de redémarrage intempestif, l’EEPROM ne sera pas proprement réécrite ou corrompue de sorte que le composant ne pourra plus démarrer en l’absence de firmware fonctionnel. Une erreur de firmware peut aussi se révéler fatale puisqu’un composant ne peut démarrer sans lui. En théorie, les fabricants, qui constateront facilement le défaut de flashage, peuvent alors décider d’annuler la garantie du produit. En réalité, ce cas de figure est rarissime pour ne pas dire inexistant, les constructeurs encouragent tellement le flash qu’ils ne peuvent plus se permettre de refuser un produit en garantie pour ces raisons. Mais de nos jours, il existe très souvent des routines de vérification, de sorte que vous ne pourrez pas flasher le firmware de votre GTX460 avec celui d’une autre carte graphique, encore moins avec celui d’un téléviseur. Cette vérification peut être contournée et ce sera même parfois nécessaire, mais il faudra alors vous assurer de posséder le bon programme.


En outre, les cartes mères et même certaines cartes graphiques, comme les HD6900, embarquent deux EEPROM, qui correspondent donc à deux firmwares différents. Sécurité supplémentaire en cas de flashage raté sur l’une des puces, il peut aussi s’agir d’une façon de conserver un firmware stable et parfaitement fonctionnel pendant que vous en testez un autre, moins fiable. Les cartes mères intègrent même des EEPROM de backup, qui ne peuvent pas être directement flashées. Celles-ci embarquent, par défaut, le même firmware que la puce à laquelle vous aurez accès et en cas de crash, l’ancien firmware pourra donc être restauré. Par la suite, si vous êtes certain du firmware employé, vous pourrez mettre à jour cette puce de secours. Enfin, lorsque les puces sont amovibles (c’est souvent le cas sur les cartes haut de gamme), on peut procéder à un hot flash. Il s’agit d’initier la procédure de flashage du firmware sur une puce parfaitement fonctionnelle, mais de la retirer au dernier moment et de la remplacer par une puce dont les données sont endommagées, ne permettant pas de démarrer correctement le matériel. Le firmware étant déjà chargé, ceci n’affecte en rien le fonctionnement des composants et il est ainsi possible de récupérer une puce qui était jusque-là corrompue. Cette manipulation est réservée aux connaisseurs qui n’ont pas le matériel nécessaire pour programmer eux-mêmes les EEPROM.

Le flashage, ce n’est pas automatique Nous considérons que le flashage du firmware est tout sauf systématique. Tout d’abord, celui-ci présente quelques risques. Multiplier les flashages revient à augmenter la probabilité qu’un problème survienne. En voulant flasher votre firmware sans raison, vous pourriez donc vous retrouver avec un composant qui ne fonctionne plus. En outre, la mise à jour du firmware est utile pour corriger des petits bugs, améliorer les performances ou la stabilité ou rajouter des fonctions. Nous pensons notamment à l’indispensable ajout du TRIM sur les SSD, au support des disques durs de plus de 2,2 To ou des derniers processeurs sur les cartes mères, d’overclocking amélioré et bien d’autres cas de figure. Si votre système fonctionne bien et que vous n’attendez rien de ce flashage, il devient alors inutile. Nous utilisons, par exemple, encore le BIOS 0505 sur notre Crosshair IV Formula, datant d’avril 2010, alors qu’il existe une version 1304 de janvier 2011. Tout fonctionne parfaitement bien et nous ne procéderons à une mise à jour que si le besoin s’en fait un jour sentir.

Cartes mères Le flashage des cartes mères est sans aucun doute le plus aisé et le plus sécurisé de tous. Il n’était guère différent des autres composants il y a de ça 5 ans, mais les constructeurs ont bien compris qu’il fallait faciliter cette opération. Il existe donc trois méthodes distinctes, toutes relativement simples. La plus pratique consiste à utiliser l’utilitaire de flashage sous Windows. Celui-ci est souvent capable de détecter et télécharger la dernière mise à jour disponible, nous vous déconseillons de lui faire confiance sans une petite vérification, un mauvais référencement du BIOS sur le serveur pourrait être fatal. Le cas échéant, désactivez cette fonction et téléchargez le BIOS depuis le site du fabricant. Ensuite, il suffit de lancer la procédure. Celle-ci peut durer quelques minutes pendant lesquelles le PC peut sembler bloqué (freezer). Il est de toute façon conseillé de ne rien faire en parallèle. Bien que très facile, cette méthode semble, d’après les statistiques des fabricants, être plus risquée qu’un flashage sous DOS. Il est donc possible de lancer un utilitaire de flashage au démarrage du PC, avant de charger le système d’exploitation. Il faut, en général, le lancer une fois que l’on est entré dans le BIOS et il est alors possible de sélectionner le fichier depuis un support de stockage (CD, disquette, clé USB, disque dur) pour que la mise à jour soit lancée. C’est notre méthode préférée, à la fois simple et sûre. Il arrive cependant qu’elle ne permette pas de downgrader, c’est-à-dire de reprogrammer l’EEPROM avec un firmware antérieur, par exemple si le nouveau ne vous convient pas. Il faut alors passer par le flashage sous DOS. Celui-ci nécessite un support bootable (CD, disquette ou clé USB) et la procédure varie selon les marques. Lorsque l’utilitaire est travaillé, il suffit de rentrer le nom d’un exécutable qui ira directement chercher le BIOS et ne vous demandera qu’une simple confirmation. Chez d’autres marques, il y a diverses opérations à effectuer, notamment indiquer le nom et l’emplacement du fichier, lancer les commandes de flashage et le tout avec des logiciels divers. Evidemment, plus votre carte est récente, plus vous aurez de chance de bénéficier des derniers progrès de la marque en termes de flashage. Le flashage chez eVGA est, par exemple, devenu relativement classique, alors que c’était un vrai calvaire sans la moindre documentation, il n’y a pas si longtemps. Notez que quelle que soit la méthode que vous choisirez, il faudra s’assurer que votre PC est stable afin d’éviter tout plantage, le mieux étant de rétablir les paramètres d’origine. De plus, vous perdrez toutes

PC Update 89


pratique : flashage

les préférences et les profils du BIOS, pensez donc à les consulter pour les recréer plus tard. Dans certains cas, certains paramètres sont conservés, mais rarement la totalité de vos réglages. Il arrive même que certaines modifications apparaissent spontanément comme un ratio RAM supérieur à ce que vous aviez auparavant sélectionné. Il est donc recommandé de tout reparamétrer à la main pour éviter toute confusion.

ASRock Sous Windows : aucun (parfois Afuwin) Utilitaire intégré : ASRock Instant Flash avec F6 au boot ou à lancer une fois entré dans le BIOS, fichier sur clé USB ou HDD Sous DOS : aucun (parfois Afudos ou AWDFlash sur support bootable)

Asus

Sous Windows : Live Update Utilitaire intégré : EZ-Flash avec Alt + F2 au boot ou à lancer une fois entré dans le BIOS, fichier sur clé USB Sous DOS : Bupdater sur support bootable

Biostar Sous Windows : BIOS Update Utilitaire intégré : Aucun Sous DOS : Aucun (?)

ECS Sous Windows : eBLU Utilitaire intégré : Aucun Sous DOS : Afudos sur support bootable

eVGA Sous Windows : Afuwin Utilitaire intégré : aucun Sous DOS : Afudos sur support bootable

Gigabyte Sous Windows : @BIOS Utilitaire intégré : Q-Flash à lancer une fois entré dans le BIOS, fichier sur clé USB Sous DOS : Flashpi sur support bootable

Intel Sous Windows : Utilitaire Intel Utilitaire intégré : Aucun Sous DOS : Iflash

MSI Sous Windows : Live Update Utilitaire intégré : M-Flash à lancer une fois entré dans le BIOS, fichier sur clé USB Sous DOS : Afudos ou AWDFlash sur support bootable

Manipulation générale sous DOS Bon nombre de marques recourent à des outils génériques pour ce qui est du flashage sous DOS. C’est aussi le cas pour le flashage sous Windows, mais ils sont alors maquillés. Quoi qu’il en soit, Afudos et AWDFlash sont deux programmes que l’on retrouve couramment. Il est hasardeux de donner une méthode de flashage générale puisque chaque version apporte son lot de changements et que les constructeurs s’amusent parfois à tenter une simplification. Néanmoins, ils fournissent toujours une explication relativement claire qui devrait suffire. Il faut copier le programme (souvent composé de plusieurs fichiers dont un *.exe) et le BIOS sur un support bootable tel qu’une clé USB, puis booter sur ce périphérique. Il faudra ensuite saisir le nom de l’exécutable (afudos.exe par exemple), souvent suivi du nom du BIOS. Le reste se fera automatiquement avec une simple demande de confirmation. Attention, certaines marques comme MSI modifient souvent un peu l’application, de sorte que le nom de l’exécutable se transforme en afud4234 (par exemple). Bien qu’il s’agisse toujours d’Afudos, il faut alors scrupuleusement saisir le nom du fichier. En outre, il n’est pas toujours nécessaire de saisir le nom du BIOS, celui-ci se trouvant préenregistré dans le fichier de configuration, tout comme les extensions sont parfois facultatives. Si vous rencontrez une erreur après votre ligne de commandes, n’hésitez donc pas à chercher un peu dans cette direction. Attention, conformez-vous scrupuleusement aux méthodes décrites par le constructeur de votre carte mère. Il faut utiliser le logiciel qui vous est fourni et aucun autre.

Cartes graphiques Il est aussi possible de mettre à jour le BIOS d’une carte graphique, mais c’est ici pour des raisons différentes. Il est très rare qu’AMD ou nVidia diffusent des correctifs, il en va de même pour les partenaires qui vendent ces cartes. Il s’agit plus souvent de modifications non officielles consistant à augmenter les fréquences ou tensions, modifier la gestion du ventilateur, débloquer certaines unités manquantes, repousser les limites d’overclocking dans les logiciels appropriés, etc. De ce fait, on utilise soit un BIOS existant d’un modèle particulier, soit un fichier modifié à l’aide de logiciels comme NiBiTor (nVidia) ou RBE (AMD). Pour mettre à jour les BIOS, il est possible de flasher sous Windows ou sous DOS, à votre convenance. Les puristes préféreront la deuxième solution, que nous trouvons nous aussi plus transparente, néanmoins l’interface Windows est très rassurante pour les débutants.

Sur les HD6900, AMD a soudé deux EEPROM et un switch permettant de passer aisément d’un BIOS à l’autre.

90 PC Update

Sauvegarder l’ancien BIOS Les BIOS des cartes graphiques sont beaucoup moins répandus que ceux des cartes mères et à l’exception de la collection de TechPowerUp. com, vous aurez bien du mal à retrouver votre ancien BIOS. Aussi, nous vous conseillons de le sauvegarder avant d’aller plus loin. Bien que les utilitaires sous DOS permettent de le faire avec les fonctions Save ou Backup, nous préférons utiliser GPU-Z et son interface agréable. Cliquez donc sur le petit bouton au bout de la ligne BIOS Version et spécifiez l’emplacement de sauvegarde du fichier.


Plus pratique, le flashage sous Windows n’est pas toujours possible et il faut alors procéder sous DOS.

Certaines cartes mère embarques deux BIOS afin de toujours bénéficier d’une certaine marge de manoeuvre en cas de flashage raté.

Renommer le nouveau BIOS Quel que soit le nom du BIOS que vous souhaitez utiliser pour flasher votre carte graphique, vous pouvez modifier son nom sans la moindre conséquence. Et c’est même conseillé car certaines versions de DOS ne gèrent que huit caractères, un nom plus long sera donc problématique. En outre, inutile de se compliquer la vie avec des noms fastidieux à recopier.

ATI Winflash permet de flasher le BIOS des cartes ATI/AMD depusi Windows, et il s’avère bien plus pratique et simple à utiliser que l’équivalent pour les cartes nVidia.

ainsi que le nouveau BIOS. Entrez alors la ligne de commandes suivante : atiflash –p 0 bios.bin où « bios.bin » désigne le nom de votre BIOS et son extension. Le chiffre 0 réfère au numéro de votre carte graphique. Lorsqu’il n’y en a qu’une d’installée, ce sera 0, si vous en avez plusieurs, utilisez la commande–i qui vous donnera le détail pour chaque carte. Dans de rares cas, il arrive que le flashage ne soit pas possible. Si vous êtes certain de vouloir faire la mise à jour, ajoutez la commande –f qui forcera le flashage. Taper atiflash tout seul vous permettra d’afficher la liste de toutes les fonctions du programme, ainsi que la façon de les utiliser.

nVidia

Pour sauvegarder le BIOS de la carte graphique, GPU-Z est tout à fait suffisant.

ATi/AMD ATiWinflash sert à flasher une carte ATi/AMD sous Windows et il est d’une simplicité extrême. Chargez votre fichier avec Load Image, puis cliquez sur Program pour débuter la mise à jour. Voilà, c’est fait. Sous DOS, il faudra créer un support bootable, y placer les fichiers ATiflash,

nvflash s’utilise avec les cartes nVidia, que ce soit sous Windows ou sous DOS avec un support bootable et le BIOS que vous voulez utiliser. Les instructions ne changent pas, il faudra simplement indiquer le bon chemin pour lancer le programme sous Windows, l’invite de commandes étant, par défaut, sur votre répertoire personnel. Utilisez donc la fonction cd suivie du chemin du fichier. Entrez la ligne de commandes suivante pour démarrer le flashage : nvflash bios.bin où « bios.bin » désigne le nom de votre BIOS et son extension. Cette fois, il n’y a pas de numéro de périphérique à spécifier ni de commande. Toutefois, il est possible que le flashage ne veuille pas s’exécuter. Utilisez les commandes -r -5 -6 sur les dernières versions de nvflash, mais elles peuvent différer selon la date de la release.

Récupérer un flashage raté Si le flashage de votre carte graphique a échoué et qu’elle ne fonctionne plus, pas de panique, tout peut être réparé. En effet, vous pouvez brancher une carte graphique fonctionnelle pour l’affichage, et brancher

PC Update 91


pratique : flashage

Assurez vous que l’ordinateur ne plante pas pendant le flashage du composant, sinon il se pourrait que celui ci ne redémarre plus jamais.

celle qui est défectueuse en seconde position, en précisant la carte que vous souhaitez flasher dans les lignes de commandes. En effet, bien que le BIOS soit corrompu, la carte est toujours visible et on peut encore accéder à l’EEPROM. Si vous n’avez pas de deuxième carte pour l’affichage, vous pouvez tenter la manipulation en aveugle, après tout, vous ne risquez plus rien. Il faudra simplement connaître parfaitement l’enchaînement des manipulations.

SSD Les SSD ne disposent pas d’autant de mises à jour que les cartes mères, mais il y en a pour certains deux ou trois dans l’année. Les premiers SSD ont notamment connu la mise à jour nécessaire pour bénéficier du TRIM. Les tout premiers SandForce promettaient même de pouvoir être flashés de façon à réduire l’erase pool et ainsi gagner quelques gigaoctets supplémentaires, mais cette tentative a été abandonnée par les constructeurs. Plus fréquemment, le firmware permet de jouer sur les performances globales du SSD. Si une grande partie correspond aux mises à jour proposées par le constructeur du contrôleur, il arrive que certaines marques, notamment OCZ, proposent des firmwares maison, afin de privilégier les débits ou les IOPS et en agissant sur la stabilité des performances. La méthode de flashage dépend généralement du contrôleur du SSD et non de la marque, l’outil utilisé étant souvent le même à peine camouflé. En général, il faudra consulter le site du constructeur, ainsi que le forum associé. Le flashage d’un SSD, bien qu’obscur, est en général assez facile car il ne nécessite pas la moindre ligne de commandes. Mais attention, vous pourriez perdre toutes vos données lors de ce flashage, prenez donc le temps de faire une copie de votre SSD avec un logiciel comme

Même les SSD embarquent un EEPROM permettant de mettre à jour leur firmware.

Acronis True Image, par exemple. En outre, veillez à bien paramétrer votre contrôleur de stockage comme demandé, c’est-à-dire en AHCI ou en IDE. Si vous ne sélectionnez pas le bon mode, le flashage peut échouer et rendre votre disque inutilisable. Pour les SSD SandForce, l’upgrade est aisée, il suffit, en général, de télécharger le firmware et l’outil de mise à jour sur le site du constructeur. Cet outil étant utilisable sous Windows, la manipulation est des plus simple. Et bien qu’il change d’apparence selon les marques, il fonctionne de la même façon. Les SSD à base d’Indilinx sont, eux, un peu plus récalcitrants. Selon la marque du SSD, il sera possible d’effectuer la mise à jour depuis DOS ou Windows. Il faut souvent extraire le contenu d’un fichier compressé sur une clé USB ou graver un CD bootable, puis lancer la mise à jour depuis DOS. Il suffit de préciser quel disque vous souhaitez flasher, celui-ci étant facilement reconnaissable grâce à son numéro de série, impossible de le confondre avec un disque dur ou un autre SSD. Chez G.Skill, l’opération s’exécute depuis Windows dans une invite de commandes. Pour les contrôleurs Marvell (notamment le C300 de Crucial et le Performance 3 de Corsair), il faudra graver une ISO sur un CD. Il suffira ensuite de booter sur le CD et l’utilitaire vous demandera simplement de confirmer que vous voulez bien flasher votre SSD, il sera automatiquement détecté sans aucune intervention de votre part.

Lecteur/graveur DVD et HDD

Les SSD Sandforce peuvent être mis à jour via un utilitaire Windows.

92 PC Update

Le lecteur/graveur CD ou DVD lui aussi a droit à son firmware. Le flashage de celui-ci est moins courant mais existe néanmoins. Il permet notamment de supporter certaines fonctions supplémentaires, mais il consiste surtout à débloquer la limitation des zones. Car si les disques dits Zone 0 ou dézonés peuvent être lus partout, la zone 1 correspond aux Etats-Unis et au Canada, la zone 2 regroupe notamment l’Europe et le Japon, alors que la zone 6 correspond à la Chine. Lire un CD chinois avec un lecteur européen peut donc s’avérer problématique. Cette pratique a disparu, mais il peut tout de même être nécessaire de flasher son lecteur afin de le dézoner. Le flashage du disque dur corrige parfois certaines incompatibilités ou problèmes de retour de veille. Par exemple, les F3 de Samsung qui étaient parfois incompatibles. Dans tous les cas, il faudra en passer par un flashage sous DOS, aucun utilitaire n’étant développé sous Windows. Rendez-vous sur le site du constructeur qui propose un correctif lorsque c’est nécessaire, ainsi qu’une procédure détaillée ou, dans le cas des lecteurs CD/DVD, sur des bases de données de firmwares comme www.firmware.fr.st.


Stockage.Jeu.Streaming de prochaine génération en Full HD Lecteur multimédia Full HD Disponible en version 500 Go | 1 To | 1,5 To | 2 To Utilisez les réseaux sociaux Facebook, Twitter, MSN, YouTubeXL Prise en charge des formats MKV, BD-ISO et DVD IFO/ISO

Réseau câblé Gigabit Pour un streaming perfomant

Interface utilisateur unique Playon! GUI2.0

3.0 3.0

Connexion USB 3.0 Une vitesse de transfert vers le PC accrue Slot d'insertion HDD Installation simplifiée du disque dur

La gamme Playon! utilise uniquement des disques durs silencieux, basse consommation et respectueux de l’environnement.

3.0 3.0 Disponible chez:

www.acryan.com


comparatif cartes graphiques

16

cartes graphiques custom à la loupe Les meilleures GTX500 et HD6900

Les sorties de nouveaux GPU se sont accumulées ces derniers mois et leurs versions customisées par les constructeurs sont enfin présentes en masse. Si les GTX560 Ti sont à l’honneur avec six cartes, les plus gros GPU comme les GTX570 et 580, ainsi que la HD6970, ont eux aussi droit à des versions retravaillées. Nous testons ici seize cartes graphiques prétendant toutes à plus de silence et/ou d’overclocking, sans parler de leur look, plus aguicheur que les affreux pavés noirs d’origine.

Zotac GTX580 AMP²

MSI GTX506 Ti Twin Frozr II OC

Benjamin Bouix

94 PC Update

N

ous vous proposons ici seize cartes graphiques, réparties sur cinq GPU différents. Avant de savoir lesquelles ont notre préférence, resituons ces cartes sur le marché. Les GTX560 Ti et HD6950 1 Go se valent tant en performances qu’en prix (220 €), la seconde ayant l’avantage de pouvoir gérer quatre écrans en bureautique. Ce sont les cartes idéales pour jouer en 1080p confortablement avec n’importe quel jeu. Chez AMD, la version 2 Go à 250 € sera toutefois conseillée si vous souhaitez jouer en surround avec trois écrans. Un cran au-dessus, les GTX570 et HD6970 se valent aussi et tournent autour de 320 €. La seconde embarque toutefois 2 Go de RAM au lieu de 1,25 Go pour sa concurrente, ce qui lui permettra de moins peiner sur les grosses résolutions ou le surround gaming (qu’elle supporte, comme toutes

Asus HD6950 2 Go Direct Cu II

eVGA GTX570 SuperClocked HD

les Radeon HD6000). Enfin, 15 % plus rapide mais vendue 480 €, la GTX580 représente le top du top, un GPU surpuissant secondé par une bonne quantité de mémoire (1,5 Go). Toutefois, nous la réservons pour les grands écrans du type 30’’ avec une résolution de 2 560 x 1 600.

Overclocking : un simple indice Nous testons l’overclocking de chaque carte et nous vous indiquons notre meilleur résultat correspondant à une stabilité sans le moindre artefact. Mais ces valeurs ne constituent pas une garantie de résultat. La capacité d’overclocking des puces est aléatoire et relève du hasard. Ces chiffres forment néanmoins des tendances de fréquences atteignables, tout en soulignant les cartes ayant un meilleur potentiel que les autres.


Asus GTX570 Direct Cu II

Asus GTX560 Ti Direct Cu II

MSI HD6970 Lightning

MSI GTX580 Lightning

Zotac GTX560 Ti AMP

Gigabyte GTX570 OC

Club3D GTX560 Ti CoolStream OC

Le silence est d’or Acheter une carte modifiée constitue le moyen le plus facile de réduire les nuisances sonores d’un PC, les cartes de référence AMD et nVidia n’étant jamais silencieuses. L’overclocking, le look et les quelques fonctions additionnelles sont des avantages appréciables, tout comme le prix, parfois moindre, mais ils ne compenseront jamais le silence de fonctionnement. Dans notre protocole de test, une carte au-delà de 44 dB est bruyante (ne parlons même pas de celles à 47 ou 50 dB). Entre 40 et 44 dB, les plus tolérants supporteront le bruit, surtout si leur environnement de travail n’est pas calme. En dessous de 40 dB, nous considérons que le silence se fait. La carte se fera entendre si vous collez votre oreille au boîtier en pleine nuit, mais jouer dans ces conditions ne pose aucun problème. Enfin, en dessous de 37 dB, la carte sera totalement

Club3D HD6950 1Go

Asus HD6970 Direct Cu II

MSI GTX560 Ti Hawk

Point of View GTX560 Ti Beast

HIS HD6950 1Go IceQ X TurboX

inaudible à l’extérieur du boîtier, les petits grésillements de l’étage d’alimentation seront sans aucun doute plus gênants.

Le cas particulier de la GTX570 Aussi étrange que cela puisse paraître, certaines GTX570 n’affichent aucun résultat à notre bench Crysis Warhead. Il ne s’agit pas d’un oubli mais d’une incompatibilité avec notre protocole de test. En effet, nous utilisons Warhead car c’est le jeu qui est le plus exigeant pour les cartes graphiques, il nous permet donc de valider nos overclockings. Toutefois, les 1 280 Mo de mémoire des GTX570 semblent assez mal gérés, de sorte que les plantages sont trop fréquents. Vous pourrez quand même vous baser sur Mafia II pour observer le gain procuré par l’overclocking.

PC Update 95


comparatif cartes graphiques

Asus GTX570, GTX560 Ti, HD6970

et HD6950 Direct CU II

Asus GTX570 Direct Cu 2

Asus GTX570 Direct Cu II

• Prix : 340 € • Fréquences (GPU/RAM) : 742/950 MHz • Overclocking (GPU/RAM) : 845/1 040 MHz • Sorties vidéo : 2x DVI, Displayport, HDMI • Bundle : Adaptateur DVI > VGA, adaptateur PCI-E 6pins vers 8pins, pont SLI Silence perfectible d’origine

Extérieurement, la GTX570 Direct Cu 2 est identique à la GTX580 testée dans PC Update n° 52. Back plate en aluminium, triple slot, les mêmes sorties vidéo, le même ventirad et un PCB globalement très similaire. Il a, en réalité, été légèrement allégé, de sorte que l’étage d’alimentation ne compte plus que huit phases, mais la qualité globale reste la même. Notons que si le régulateur de tension reste le même, celle-ci ne peut être ajustée qu’avec le logiciel Asus (toujours aussi austère). Hélas, les performances du Direct Cu 2 déçoivent un peu, comme sur la GTX580. On s’attend à mieux d’un ventirad aussi imposant. Le GF110 de la GTX570 consommant et chauffant un peu moins, la carte est toutefois moins bruyante. Pas de changement au repos où on est encore dérangé par le bruit. En charge, le profil de ventilation est

presque un peu trop généreux. En l’ajustant à la main, le ventilateur fixé à 23 %, les températures ne dépassent pas 75 °C, alors que la carte est à peine plus audible qu’au repos. Ce n’est pas encore parfait, mais le constat est bien plus plaisant que celui de la GTX580. L’overclocking d’origine est très faible, mais la carte n’a pas de mal à gagner 100 MHz tant sur le GPU que sur la mémoire.

Asus GTX560 Ti Direct Cu 2 La GTX560 Ti a droit à un ventirad dual slot, qui paraît presque ridiculement petit comparé à ses grands frères. La largeur du PCB étant revenue à la normale, la carte est moins encombrante et les deux ventilateurs passent en 80 mm. Alors que celui qui est au-dessus du GPU est assez épais, gage d’efficacité à bas régime grâce à

Asus GTX560 Ti Direct Cu II

• Prix : 230 € • Fréquences (GPU/RAM) : 900/1 050 MHz • Overclocking (GPU/RAM) : 945/1 080 MHz • Sorties vidéo : 2x DVI, mini HDMI • Bundle : Adaptateur DVI > VGA et mini HDMI > HDMI, 2x adaptateurs Molex vers PCI-E 6pins Look Bruit A droite, la base direct touch des Direct Cu II, à gauche le switch des HD6900 qui permet de passer de DVI Single lnk à Dual link.

96 PC Update


Asus HD6970 Direct Cu II

• Prix : 340 € • Fréquences (GPU/RAM) : 890/1 375 MHz • Overclocking (GPU/RAM) : 920/1 475 MHz • Sorties vidéo : 2 x DVI, 4 x DisplayPort • Bundle : Adaptateur DVI > HDMI, adaptateur PCI-E 6pins vers 8pins, pont Crossfire

des pales plus larges, celui qui fait face à l’étage d’alimentation est bien plus fin. Cette combinaison étrange n’est pas la plus heureuse qui soit puisque la carte s’avère être la plus bruyante de toutes nos GTX560 Ti. Les températures sont bonnes mais sont loin de justifier un tel barouf. Une fois encore, le PCB est modifié et reprend les mêmes standards que celui des plus grosses GTX. Les puces de mémoire sont toujours les mêmes 0,8 ns provenant de chez Samsung et qui atteignent des fréquences similaires soit 1 050 à 1 100 MHz. Il est d’ailleurs étrange de constater que des puces certifiées à 1 250 MHz n’atteignent même pas cette fréquence, sans doute dû à une limitation de la part des contrôleurs mémoire.

Asus HD6970 Direct Cu 2 Outre un PCB et un radiateur maison, comme les précédentes Direct Cu 2, cette HD6970 intègre le support de six écrans en configuration Eyefinity ! Ça n’est pas totalement inédit puisque les HD5870 2 Go proposaient la même chose il y a déjà un an, mais c’est la première HD6970 capable de supporter autant d’écrans, AMD n’ayant encore rien annoncé d’équivalent. Deux écrans peuvent donc être reliés en DVI, alors que tous les autres devront utiliser les sorties DisplayPort (avec un adaptateur passif selon les écrans). Il est même possible de gérer cinq écrans jusqu’à 2 560 x 1 600 et un 6e en 1 920 x 1 200. La carte ne sera jamais assez puissante pour une telle configuration avec des jeux modernes, mais cela pourra servir en 2D. Attention toutefois, la sortie DVI du bas étant commune avec la sortie DisplayPort, le switch près du connecteur CrossFire permet d’opter pour les sorties DisplayPort et DVI Single Link ou DVI

Dual Link et sans DisplayPort. Le refroidissement est convaincant, bien plus discret et efficace que sur les GTX500. Les ventilateurs ne sont pas tout à fait silencieux, mais en modifiant le profil de ventilation (ou peut-être avec un nouveau BIOS si Asus se réveille), il est possible de légèrement améliorer la situation.

Asus HD6950 2 Go Direct Cu 2 La HD6950 2 Go en version Direct Cu 2 est très similaire à la HD6970. Toutefois, le radiateur est un peu plus basique, la partie au-dessus du GPU étant un bloc d’aluminium offrant moins de surface de dissipation. Le GPU étant un peu plus économe, la différence ne se fait pas sentir et les performances de refroidissement sont du même acabit que celles de sa grande soeur. Le bruit est très supportable, mais ce n’est pas encore tout à fait silencieux. Mieux encore, notre 6950 a supporté le flash en 6970 (en modifiant le BIOS avec RBE), procurant un boost de 10 % ! Il faudra, cependant, aussi modifier les limites d’overclocking pour ne pas se retrouver bloqué à la limite des pilotes pour la HD6950, soit 950/1 350 MHz. Notez que la version 1 Go, moins chère et tout aussi performante pour des résolutions ne dépassant pas le 1 920 x 1 200, se passe du support des six écrans et devient dual slot, tout comme la GTX560 Ti Direct Cu 2.

C

UPDAT E

P

silence correct support de six écrans cannibalisée par la HD6950 2 Go DC2

Asus HD6950 2 Go Direct Cu II

• Prix : 250 € • Fréquences (GPU/RAM) : 810/1 250 MHz • Overclocking (GPU/RAM) : 930/1 350 MHz • Sorties vidéo : 2 x DVI, 4 x DisplayPort • Bundle : Adaptateur DVI > HDMI, adaptateur PCI-E 6pins vers 8pins, pont Crossfire

silence correct support de six écrans déblocage possible en HD6970 -

PC Update 97


comparatif cartes graphiques

MSI GTX580 et HD6970 Lightning, GTX560 Ti Hawk et GTX560 Ti Twin Frozr II

MSI GTX580 Lightning P

C

UPDAT E

• Prix : 530 € • Fréquences (GPU/RAM) : 832/1 050 MHz • Overclocking (GPU/RAM) : 885/1 070 MHz • Sorties vidéo : 2 x DVI, HDMI, DisplayPort • Bundle : Adaptateur DVI > VGA, 2x Adaptateurs PCI-E 6pins vers 8pins, Connecteur pour mesure de tension, pont Crossfire overclocking silence une fois le ventilateur ajusté bruit avec le profil de ventilation d’origine

MSI HD6970 Lightning • Prix : 390 € • Fréquences (GPU/RAM) : 940/1 375 MHz • Overclocking (GPU/RAM) : 1 010/1 520 MHz • Sorties vidéo : 2 x DVI, 2 x miniDisplayPort, HDMI • Bundle : Adaptateur DVI > VGA, adaptateur mini DisplayPort > DisplayPort, 2x Adaptateurs PCI-E 6pins vers 8pins, Connecteur pour mesure de tension, pont Crossfire overclocking silence une fois le ventilateur ajusté bruit avec le profil de ventilation d’origine prix

98 PC Update

MSI GTX580 Lightning

Les Lightning représentent le fer de lance chez MSI. Après les HD5870 et GTX480, c’est la GTX580 qui est donc la plus rapide de toutes. Cadencée à 832/1 050 MHz au lieu de 772/1 002 pour les 580 de référence, c’est assez timide. Mais les GF110 ne sont pas réputés pour leur propension à l’overclocking. Nous avons atteint 885/1 070 et c’est déjà un résultat honorable. Les courageux pourront tenter de stabiliser la carte autour de 950 MHz, nous avons réussi avec une tension de 1,15 V. Et les plus extrêmes pourront s’amuser sous azote liquide, la carte est taillée pour ce jeu. Six switchs sont présents au dos de la carte. Le premier permet de changer de BIOS en basculant sur le mode LN2 qui permet d’encaisser des températures encore plus extrêmes. Trois autres permettent d’augmenter la plage de variation des tensions GPU, mémoire et PLL. Un cinquième permet d’augmenter la fréquence de commutation des quatorze phases d’alimentation de 260 à 310 MHz, afin d’atténuer les variations de tension. Enfin, le dernier, OCP Unlocker, permet de passer la limitation

en courant de 492 à 542 A ! Tout cela permet donc de faire passer près de 800 W dans l’étage d’alimentation, c’est dément ! La carte étant taillée pour l’overclocking, le profil de ventilation est très optimiste. En effet, le GPU ne dépasse jamais 60 °C, au prix de nuisances sonores extrêmes. Toutefois, il est possible de fixer le ventilateur à 40 % et la carte se montre alors très discrète, avec 40 dB en charge. Elle est annoncée à 530 €, c’est presque décent pour une telle carte.

MSI HD6970 Lightning La HD6970 Lightning est très similaire à la GTX580 chez MSI. Elle utilise le même ventirad composé de cinq caloducs, dont deux de 8 mm, mais le PCB passe de douze à quatorze phases pour le GPU (sans oublier les trois dédiées à la mémoire). Les switchs pour l’overclocking changent de place et deviennent moins accessibles, car placés en bas du PCB. Evidemment, c’est un Cayman XT qui est ici utilisé, couplé à 2 Go de


Le dos du PCB de la 580 Lightning regorge de switchs spécial overclocking.

GDDR5 Hynix certifiée à 1 500 MHz, la même que l’on retrouve sur les autres HD6970. Tout comme la GTX580, les performances de refroidissement sont excellentes par défaut, mais c’est au prix de nuisances sonores insupportables. Sur notre carte de présérie, les modes Silence et Performance étaient identiques, mais il faut espérer que les finales embarqueront un profil plus calme. Toutefois, en cherchant à la main, il a été possible de réduire le bruit émis par le ventirad. A 35 %, la carte reste sous les 80 °C, tandis qu’elle n’émet que 39,2 dB, elle est donc tout à fait silencieuse. L’overclocking est aussi au rendez-vous puisque de 880/1375 pour une HD6970 de référence, nous avons atteint 1 010/1 520 MHz. Toutefois, le surcoût par rapport à une carte classique s’élève ici à près de 20 %, c’est un peu trop élevé selon nous.

MSI GTX560 Ti Hawk

Déclinée en version Hawk, la GTX560 Ti ressemble à une miniLightning. Moins extrême, moins imposante, moins chère, mais toujours la même cible : les overclockers. Le Twin Frozr III est donc similaire à celui des Lightning, mais avec des ventilateurs 80 mm et un caloduc de moins. Il n’est plus possible de modifier la fréquence de commutation des phases de l’étage d’alimentation, mais les switchs pour l’OCP et le mode LN2 sont toujours là, tout comme celui pour sélectionner le BIOS ou les points de mesure de tension. Ceux-ci se retrouvent désormais sur le coin en bas à droite, c’est un peu plus compliqué d’accès, heureusement que MSI livre des extensions. Aussi surprenant que cela puisse paraître, le radiateur est ici bruyant et même s’il est possible d’améliorer un peu la situation en limitant la vitesse du ventilateur, c’est toujours trop bruyant, même en mode silence. En revanche, l’overclocking est excellent. Tant l’overclocking de base que les fréquences que nous avons pu atteindre, puisque nous avons passé le cap du gigahertz. La Hawk est alors cadencée presque 25 % plus rapidement que la carte de référence et ce, pour à peine quelques euros de plus.

MSI GTX560 Ti Twin Frozr II OC Après ces trois cartes taillées pour l’overclocking, la GTX560 Ti Twin Frozr II paraît presque frêle. C’est pourtant une carte de très bonne facture. Fait amusant, un autocollant au bas du PCB dissimule le logo MSI Hawk. En la démontant, on découvre un PCB strictement identique à celui de la GTX460 Hawk testée dans PC Update n° 50 qui nous avait comblé, à l’exception d’un prix un peu trop élevé. Force est de constater que la disparition du suffixe Hawk, des points de mesure et de la possibilité de régler les tensions PLL et mémoire (ce qui est relativement peu utile) fait chuter le prix qui tourne désormais autour de 220 €, soit à peine plus qu’une GTX560 Ti de référence. Le PCB est d’excellente qualité, tout comme l’overclocking puisque la carte a atteint les mêmes fréquences que la Beast de Point of View, vendue 300 € ! Le BIOS d’origine n’était pas exceptionnel, les ventilateurs tournant plus vite que de raison. Si vous avez la flemme de modifier et flasher le BIOS, fixer le ventilateur à 40 % grâce à un logiciel comme Afterburner permettra de ne jamais entendre la carte, tout en conservant des températures correctes (76 °C).

MSI GTX560 Ti Hawk

• Prix : 235 € • Fréquences (GPU/RAM) : 950/1 050 MHz • Overclocking (GPU/RAM) : 1 015/1 140 MHz • Sorties vidéo : 2 x DVI, miniHDMI • Bundle : Adaptateur DVI > VGA et DVI > HDMI, adaptateur mini HDMI > HDMI, 2x Adaptateurs Molex vers PCI-E 6pins, Connecteur pour mesure de tension overclocking rapport performances/prix bruit

MSI GTX560 Ti Twin Frozr II OC

• Prix : 220 € • Fréquences (GPU/RAM) : 880/1 050 MHz • Overclocking (GPU/RAM) : 990/1 165 MHz • Sorties vidéo : 2 x DVI, miniHDMI • Bundle : Adaptateur DVI > VGA, adaptateur mini HDMI > HDMI, 2x Adaptateurs Molex vers PCI-E 6pins silence overclocking prix -

PC Update 99


comparatif cartes graphiques

Zotac GTX580 AMP²

Zotac GTX560 Ti AMP

Prix : 530 € Fréquences (GPU/RAM) : 815/1 026 MHz Overclocking (GPU/RAM) : 870/1 085 MHz Sorties vidéo : 2 x DVI, miniHDMI Bundle : Assassin’s Creed BrotherHood, adaptateurs miniHDMI > HDMI et DVI > VGA, adaptateurs Molex > PCI-E 6 pins et PCI-E 8 pins > PCI-E 6 pins

Prix : 250 € Fréquences (GPU/RAM) : 950/1 100 MHz Overclocking (GPU/RAM) : 970/1 200 MHz Sorties vidéo : 2 x DVI, miniHDMI Bundle : Assasin’s Creed BrotherHood, Adaptateur DVI > VGA et mini HDMI > HDMI, 2x adaptateurs Molex vers PCI-E 6pins

3 Go de mémoire silence perfectible

look jeu fourni inutile hors grosses résolutions

Quand nous râlons parce que la GTX580 mérite plus que les 1 536 Mo de mémoire qui lui sont attribués d’office, Zotac lance la GTX580 AMP², équipée d’un PCB de référence, de puces de 256 Mo (au lieu La Zotac GTX580 AMP² reprend un PCB d’origine la rendant compatible avec la plaque de de 128) et d’un ventirad triple refroidissement Zalman. slot Zalman. A ne surtout pas confondre avec l’AMP classique qui, elle, se contente du ventirad nVidia et d’un timide overclocking. Il existe aussi un modèle 3 Go avec le même design de référence, tout aussi bruyant donc. L’exemplaire que nous avons reçu pour nos tests était défectueux, nous privant des tests sur Crysis, néanmoins tous les autres sont passés avec succès. Nous suspectons une mémoire inadaptée ou des puces mémoire défectueuses. Zotac a repoussé le lancement de quelques semaines pour réparer ce désagrément, mais vous la trouverez bien vite autour de 530 €. C’est cher, toutefois le Zalman VF3000 dont elle est équipée (en version compatible GTX400/500 et avec sa plaque de refroidissement) coûte 50 à 60 € à lui seul. Ce dernier se révèle silencieux, bien que très légèrement audible en charge prolongée. En outre, cette carte ne se destine qu’aux joueurs en SLI et en grosses résolutions, les autres se contenteront d’une GTX580 1,5 Go, ou même d’une carte plus modeste. L’overclocking est au rendez-vous et même la mémoire semble monter aussi bien que sur les autres cartes. Celle-ci est d’origine Hynix et bien que ce soit dur à affirmer avec certitude, elle semble un peu moins efficace que la Samsung traditionnelle à fréquence identique, mais rien de dramatique.

100 PC Update

overclocking look bundle prix silence perfectible

Zotac propose plusieurs versions de GTX560 Ti qu’il ne faut pas mélanger. La première est aussi courte qu’une GTX460 de référence (XX cm) et utilise le même refroidissement, assez léger. Les deux autres sont des cartes utilisant le même PCB et le même refroidissement que les GTX560 Ti de référence. Le modèle OC tourne à 850/1 002 MHz, alors que Malgré un look agressif, la GTX560 Ti AMP utilise celui que nous essayons est le même PCB et le même ventirad que la GTX560 cadencé à 950/1 100 MHz. Ti de référence. Des fréquences élevées pour une carte à peine relookée et vendue 250 €. C’est un peu cher. En pratique, l’overclocking GPU est très proche de sa limite, alors que la mémoire monte encore jusqu’à 1 200 MHz. Toutefois, le refroidissement fâche. Le surplus de fréquence l’oblige à tourner un peu plus vite que sur une GTX560 Ti classique, qui n’est déjà pas silencieuse. Et les températures atteignent déjà 80 °C sur le GPU, impossible d’optimiser quoi que ce soit. Au final, cette carte n’a pour elle que son look, qui est certainement atypique et plutôt plaisant.


Gigabyte GTX570 OC

eVGA GTX570 SC HD

Prix : 325 € Fréquences (GPU/RAM) : 780/950 MHz Overclocking (GPU/RAM) : 880/1 012 MHz Sorties vidéo : 2 x DVI, miniHDMI Bundle : Adaptateur DVI > VGA, cable mini HDMI/ HDMI 1.5m, 2x adaptateurs Molex vers PCI-E 6 et 8pins

Prix : 340 € Fréquences (GPU/RAM) : 797/975 MHz Overclocking (GPU/RAM) : 835/980 MHz Sorties vidéo : 2 x DVI, miniHDMI, DisplayPort Bundle : adaptateur DVI > VGA, 2x adaptateurs Molex vers PCI-E 6pins

overclocking performances silence parfait après modification du BIOS ventilateur trop bruyant d’origine

prix

Actuellement, la N570OC est la seule GTX570 modifiée de Gigabyte, cohabitant avec une carte de référence. Toutefois, une version N570SO (pour Super Overclock) a été présentée au CeBIT et débarquera sans doute dans les semaines qui arrivent, soyez vigilant. Bien que bleu, le PCB de cette carte est identique à celui des GTX570 de référence. La seule différence provient donc de l’overclocking d’usine et surtout du refroidissement maison : le WindForce 3x. Plutôt imposant, celui-ci est composé d’une base en cuivre, de nombreuses ailettes en aluminium et de deux gros caloducs, le tout étant refroidi par trois ventilateurs de 80 mm. D’origine, il est bien trop bruyant et les températures exceptionnellement basses en charge (55 °C) témoignent d’une mauvaise optimisation du profil de ventilation. Il n’est, en outre, pas possible de descendre à moins de 40 % de la vitesse de rotation du ventilateur. En éditant le BIOS avec NiBiTor, nous avons abaissé cette limite à 25 %, afin de pouvoir régler le ventilateur à notre guise. Il s’avère qu’à 35 % (soit 1 500 tpm), la carte est très bien refroidie (69 °C) et inaudible (38,5 dB). D’origine cadencée à 780/950 MHz, la carte monte considérablement pour atteindre 880/1 012 MHz. Les performances sont alors similaires à celles d’une GTX580 ! A 325 €, si vous avez le courage de modifier le BIOS, c’est donc une excellente GTX570 !

longueur réduite overclocking d’usine silence perfectible La GTX570 SC HD eVGA est bien plus courte que la GTX570 de référence.

Chez eVGA, le suffixe HD correspond à l’ajout d’une sortie DisplayPort, en plus des deux DVI et du miniHDMI. Le suffixe SC (pour SuperClocked) désigne, quant à lui, un overclocking d’usine. Notre verAlors que le ventirad est identique à celui des sion SC HD se différencie par GTX560 Ti de référence, le PCB est un peu arrangé un ventirad différent et un PCB mais reste globalement similaire. plus court, le tout ressemblant furieusement à une GTX560 Ti de référence. Le démontage de la carte confirme cette hypothèse, bien que le PCB soit modifié pour pouvoir alimenter le GPU plus gourmand. Il reprend toutefois la même organisation globale que celui des GTX560 Ti. Ce n’est pas forcément une mauvaise chose puisque les quatre phases pour le GPU sont conservées, comme sur le design nVidia, ne laissant présager d’aucune limitation. Nous redoutions les nuisances sonores avec un système de refroidissement étudié pour un GPU plus modeste, mais elles ne sont finalement pas catastrophiques. C’est encore bien trop bruyant pour être supportable en charge dans une pièce calme, mais c’est toujours plus silencieux que la GTX570 de référence. Et par rapport à la GTX560 Ti, c’est en très légère hausse, rien de dramatique. Il est même probable que cette carte accepte les waterblocks génériques pour GTX560 Ti. L’overclocking de base est plutôt généreux, on passe de 732 à 797 MHz, c’est même mieux que les Asus Direct Cu 2 et Gigabyte OC ! Nous avons même réussi à monter encore un peu, mais l’overclocking mémoire s’avère médiocre. A 340 €, ce n’est donc pas une mauvaise carte, mais elle n’est pas assez silencieuse pour que nous la recommandions.

PC Update 101


comparatif cartes graphiques

Point of View GTX560 Ti Beast Prix : 300 € Fréquences (GPU/RAM) : 954/1 056 MHz Overclocking (GPU/RAM) : 990/1 230 MHz Sorties vidéo : 2 x DVI, miniHDMI Bundle : adaptateur mini HDMI > HDMI, adaptateur molex > PCI-E 6pins très bon overclocking silence perfectible

prix de la version Beast

Depuis peu chez Point of View, les séries TGT (Tismer Graphics Tuning) Charged/Ultra Charged/Beast ont remplacé les EXO. Si le nom de Tismer ne vous est pas étranger, c’est parce qu’il s’agit du géniteur des Golden Sample chez Gainward et qu’il était à la tête de la division européenne d’eVGA. Et on s’en rend compte puisque les Beast succèdent tout L’étage d’alimentation de naturellement aux FTW qui avaient l’habitude d’être la GTX560 Ti Beast est monstrueux ! les cartes les plus rapides du marché. A 4 MHz près, c’est en effet le cas de cette GTX560 Ti qui culmine à 954 MHz en lieu et place des 832 MHz recommandés par nVidia. D’ailleurs, la carte n’a plus rien d’une Les puces mémoire, l’étage d’alimentation et tout GTX560 Ti puisque le PCB le dos du PCB sont habillés de plaques métalliques aidant à la dissipation. prend de l’embonpoint. 28 cm de long, huit phases d’alimentation, des plaques de refroidissement pour aider à la dissipation des deux côtés, un connecteur PCI-Express 8 pins et un autre 6 pins : pas de doute, c’est du sérieux. Pour couronner le tout, le refroidissement est confié à un Arctic Accelero Xtreme Plus, très similaire à l’Accelero Xtreme que nous avions testé dans Hardware Magazine n° 47. Nos conclusions à son sujet ne changent pas et l’on retrouve donc un refroidissement performant mais un peu trop audible. Ainsi overclockée, la GTX560 Ti Beast est à peine plus discrète que la carte de référence. L’overclocking est très bon puisqu’on atteint 990/1 230 MHz, soit la plus performante de nos GTX560 Ti. En revanche, le coup de massue des 300 € à aligner pour une GTX560 Ti est dur à avaler. Autour des 250 €, la version Charged Triple Fan, sans doute plus silencieuse et moins chère, sera préférable.

102 PC Update

Club3D GTX560 Ti CoolStream OC Prix : 225 € (estimation) Fréquences (GPU/RAM) : 880/1 025 MHz Overclocking (GPU/RAM) : 920/1 125 MHz Sorties vidéo : 2 x DVI, miniHDMI Bundle : inexistant !

bruit rapport performances/prix

Club3D est surtout réputé pour ses cartes AMD convaincantes mais jusque-là, la marque ne s’était jamais aventurée à proposer autre chose que des cartes de référence chez nVidia. Et pour cause, à part Le PCB de la GTX560 Ti CoolStream OC est identique à celui des cartes de référence nVidia, Asus, Gigabyte et MSI, tous les à l’exception de la couleur. constructeurs ont choisi leur camp et s’y tiennent. Le radiateur pour lequel Club3D a opté n’est guère convaincant. Il est, certes, équipé de trois caloducs et de deux ventilateurs de 80 mm, Un radiateur aussi modeste a du mal à contenir mais il ne semble pas offrir les ardeurs du GF114. plus de surface de dissipation que le radiateur d’origine. En pratique, les deux ventilateurs s’avèrent très bruyants en charge, faisant perdre tout son intérêt à cette carte. Les températures ne sont même pas plus basses, de sorte qu’il n’est même pas possible d’ajuster le profil de ventilation. En outre, le PCB est certes bleu, mais il respecte scrupuleusement le design nVidia. L’overclocking de base est correct, sans être exceptionnel. En revanche, nous n’avons pas pu monter bien haut sur le GPU : 920 MHz, c’est même un peu faiblard. La carte n’a pas encore foulé le sol français. Cela ne saurait tarder, toutefois les prix en Allemagne ne laissent rien présager d’exceptionnel. Nous estimons son prix à 225 € par chez nous, dans les semaines qui arrivent. Et ce n’est pas le bundle inexistant qui viendra enrichir ce constat. C’est triste, mais une carte de référence sera préférable en tout point (bundle, prix, nuisances sonores).


HIS HD6950 1 Go IceQX TurboX

Club3D HD6950 Prix : 225 € Fréquences (GPU/RAM) : 800/1 250 MHz Overclocking (GPU/RAM) : 905/1 315 MHz Sorties vidéo : 2 x DVI, 2 x miniDisplayPort, HDMI Bundle : pont CrossFire

bruit atroce !

Prix : 265 € Fréquences (GPU/RAM) : 840/1 280 MHz Overclocking (GPU/RAM) : 900/1 325 MHz Sorties vidéo : 2 x DVI, 2 x miniDisplayPort, HDMI Bundle : adaptateur DVI > VGA, 2 adaptateurs Molex > PCI-E 6 pins, pont CrossFire look qualité de fabrication silence perfectible BIOS/overclocking limité

Cette HD6950, comme beaucoup d’autres cartes AMD chez Club3D, est en fait une carte PowerColor rebadgée. Elle utilise un refroidissement similaire à celui de la HD6870 PCS+ que nous avions testée dans Hardware Magazine n° 51, mais il passe cette fois à deux ventilateurs. Il n’utilise que deux caloducs, bien que des emplacements soient prévus pour quatre, sans doute pour des versions ultérieures plus costaudes, la PCS++ en dénombrant trois. C’est bien dommage car le ventirad est ici totalement insupportable, même au repos. En charge, les nuisances sonores augmentent alors que la température est à peine contenue sous les 80 °C. Nous avons démonté, changé la pâte thermique et relancé une série de tests sans que nos résultats ne varient d’un iota. Les ventilateurs ne semblent même pas particulièrement bruyants ou inefficaces, il s’agit selon nous d’un radiateur prévu pour des cartes plus modestes et qui n’a pas sa place sur une HD6950. Le PCB a été revu, notamment pour des composants un peu differents. Ni meilleurs ni moins bons que ceux d’origine, ils permettent surtout de faire des économies d’échelle. Bonne nouvelle toutefois, il est encore possible de modifier la tension du GPU sous Windows, ce n’est pas toujours le cas chez lcette marque. Le bundle est basique, l’overclocking est dans la moyenne sans plus, tout comme le prix. Dur de trouver le moindre point positif à cette carte graphique qui parvient à nous décevoir sur tous les plans.

Le ventirad de la Club3D HD6950 n’utilise que 2 caloducs alors qu’il est prévu pour 4.

Après les HD6850 et HD6870, le ventirad IceQ X bleu glacial se retrouve sur la HD6950, six modèles cohabitant, disponibles en version 1 ou 2 Go, plus ou moins overclockés. Nous testons le modèle intermédiaire cadencé à 840/1 280 MHz, soit un léger effort par rapport aux fréquences d’origine. Par rapport à la HD6850 testée précédemment, le radiateur n’a visiblement pas évolué, toujours constitué de quatre caloducs dont deux de 8 mm et refroidi par un ventilateur de 80 mm. La carte se fait entendre en charge, sans même que les températures soient excellentes, on tourne de base autour des 70 °C. Ça n’en fait pas un mauvais produit mais ce n’est pas encore suffisant. En revanche, bien que très ressemblant, le PCB a été légèrement réorganisé afin de caser tous les composants. Le régulateur de tension est le même que celui utilisé sur les HD6000 de référence, il sera donc aisé de monter en fréquence. Dommage cependant que le BIOS limite l’overclocking, HIS aurait dû corriger ce petit défaut, d’autant que la carte n’a aucun mal à atteindre les 900/1 325 MHz autorisés. Il sera toutefois possible aux bidouilleurs de s’affranchir de cette limite en modifiant le BIOS. Au final, il ne reste que le look et une qualité de fabrication exemplaire, l’overclocking au même titre que les nuisances sonores et le tarif se situant dans la moyenne, ni plus ni moins.

PC Update 103


comparatif cartes graphiques Nuisances sonores (dB)

Températures (°C) 41

AMD 6970 MSI 6970 Lightning

34

Asus 6970 DC2

35

89 65

77

33

Asus 6950 DC2

68

33

HIS 6950 IceQ X

37

35

28

Gigabyte 570 OC

29

nVidia 560

29 31

Zotac 560 Ti AMP

30

Asus 560 Ti DC2

28

MSI 560 Ti TF2 OC

29 0

20

40

Repos

60

80

38,2

0

10

AMD 6970

74,3 69,3

Asus 6970 DC2 AMD 6950

59,2

Asus 6950 DC2

59,7

AMD 6950

53,1

Asus 6950 DC2

53,5

65,3 59,4

nVidia 580 Zotac 580 AMP²

76,8 71,8

Asus 580 DC2

77,1 72,4

nVidia 570

65,4

72,4

64,5 63,3

Asus 570 DC2

73,1 69,4 76,8 73,6 0,0 0,0

Gigabyte 570 OC

0,0 0,0

eVGA 570 HD SC

0,0 0,0

Asus 570 DC2

0,0 0,0

64,2 60,8

MSI 560 Ti Hawk

Zotac 560 Ti AMP

62,9 61,2

Zotac 560 Ti AMP

59,7 56,8 64,6 60,9

57,3

50,8 59,0 55,1 59,0 56,0 55,3 52,2

Club3D 560 Ti Coolstream

59,5 55,6

POV 560 Ti Beast

61 58,1

60

68,9 0,0 0,0

nVidia 570

MSI 560 Ti Hawk

55,4 53,3

Asus 560 Ti DC2 65,3

58,5 52,6

MSI 560 Ti TF2 OC 80

100

0,0

Stock

orce est de constater que les produits silencieux ne sont pas légion. Les ventirads utilisés sont rarement bien proportionnés, c’est à se demander si le chef produit n’était pas en vacances. Même quand elles en ont la capacité, les constructeurs ajustent mal le BIOS et les cartes perdent alors leur intérêt. Néanmoins, dans de rares cas, la solution idéale existe. Commençons par nos deux coups de coeur, qui souffrent de la même carence : un BIOS qui mériterait d’être mieux ajusté. Pour cette raison, nous ne pouvons pas leur décerner la meilleure récompense qui soit, nombreux sont ceux qui veulent un produit parfait dès le déballage. Mais les plus courageux qui prendront le temps de modifier le BIOS pendant quelques minutes auront droit à des cartes

20,0

40,0

OC

En quête de silence

104 PC Update

58,6 53,9

nVidia 560

54,6

POV 560 Ti Beast

F

Club3D 6950

Asus 580 DC2

69,7 67,1

eVGA 570 HD SC

58,0 55,1

MSI 580 Lightning

62,9

Gigabyte 570 OC

59,5

HIS 6950 IceQ X

Zotac 580 AMP²

81 77,1

MSI 580 Lightning

61,6 59,3

nVidia 580

72,3

OC

70

65,6 61,6

66,4

Club3D 6950

40

60

59,5

MSI 6970 Lightning Asus 6970 DC2

64,4 61,7

20

50

69,1 67,2

HIS 6950 IceQ X

0

40

Charge

AMD 6970

66,9

MSI 560 Ti TF2 OC

30

48,5 44,5

Crysis Warhead (FPS)

MSI 6970 Lightning

Asus 560 Ti DC2

20

Repos

Mafia II (FPS)

Club3D 560 Ti Coolstream

47 43,5

37

Charge

nVidia 560

44

38,6 36,8

Asus 560 Ti DC2

100

49,6

39,1

MSI 560 Ti TF2 OC

66

43,5

37,3

POV 560 Ti Beast

74

47,6

44,5

40,3 43,9 38,8

Club3D 560 Ti Coolstream

79

50,4

42,8

Zotac 560 Ti AMP

81 34

POV 560 Ti Beast

53,4

39,6

MSI 560 Ti Hawk 84

47,6

40,8

nVidia 560

71

26

Club3D 560 Ti Coolstream

42,5

40

Asus 570 DC2 81

63,9

49,3

39,5

eVGA 570 HD SC

78 67

MSI 560 Ti Hawk

37,6

Gigabyte 570 OC

55

Asus 570 DC2

43,8 47,5

nVidia 570

82

32

eVGA 570 HD SC

52,6

40,6

MSI 580 Lightning

58

38

nVidia 570

38,3

Asus 580 DC2

87

MSI 580 Lightning

38,5 41,2

Zotac 580 AMP²

72

30

Asus 580 DC2

40,9

Asus 6950 DC2

nVidia 580

75

36

Zotac 580 AMP²

38,5 41,2

Club3D 6950

79

nVidia 580

54,2 49,3

AMD 6950

HIS 6950 IceQ X

74

31

Club3D 6950

41 38,6

Asus 6970 DC2

72 40

AMD 6950

AMD 6970 MSI 6970 Lightning

60,0

80,0

100,0

Stock

parfaites en toutes circonstances, les MSI GTX560 Ti Twin Frozr II et Gigabyte GTX570 OC, pour respectivement 225 et 325 €. Vient ensuite l’Asus HD6950 2 Go Direct Cu 2 qui est de base très discrète, s’overclocke bien, se débloque même en HD6970 et peut se vanter de gérer six écrans. Proposée à 250 €, soit le tarif des HD6950 2 Go de référence, plus bruyantes, cette carte est un excellent choix qui éclipse sa grande soeur la HD6970 vendue plus cher. Enfin, pour les furieux d’overclocking, la MSI GTX580 Lightning représente ce qui se fait de mieux dans le domaine. L’addition est très salée (530 €), mais compte tenu du silence de fonctionnement et du monstre de performances, ce n’est pas si délirant.



comparatif ventirads

be quiet!, Corsair, Prolimatech, Scythe, Thermalright, Xilence 6 ventirads CPU top performances (de 60 à 75 €)

Entre les monstres tels les Prolimatech Genesis et Scythe Susanoo, l’ultraefficacité du Thermalright Archon et le watercooling tout-en-un amélioré du Corsair H60, l’actualité des ventirads CPU est loin de se calmer. De nouveaux records à la clé ? Thomas Olivaux

R

arement l’actualité n’aura réuni autant de monstres d’un seul coup. Au sein de cette sélection, les tout premiers ventirads de be quiet!, le célèbre fabricant d’alimentations. Avec un look sombre des plus réussi et un poids record de 1,55 kg pour le plus gros des deux, sauront-ils s’imposer face aux références établies ? Références qui risquent d’être mises à mal par la sortie du nouveau géant de Prolimatech, le

Genesis et son look improbable (à la fois tour, à la fois à plat), sans négliger l’imposant Scythe Susanoo qui bat tous les records (4 ventilateurs de 100 mm à plat, 21 x 21 cm !). A leurs côtés, Corsair insiste sur la voie du watercooling CPU tout-en-un et prêt à l’emploi, en greffant une troisième référence à sa gamme Hydro, le H60. S’alliant à un nouveau partenaire pour son développement, saura-t-il nous convaincre d’abandonner l’air ? Les deux ventirads restant semblent assez classiques vis-à-vis des autres, mais il s’agit toutefois d’un format peu répandu, des tours 140 mm de faible épaisseur. Ce style, introduit par Prolimatech et son Armageddon afin de favoriser l’installation de mémoires hautes, sans négliger le refroidissement CPU, est aujourd’hui repris par Thermalright et l’Archon, ainsi que Xilence et son M612 Pro. Avec un total de six ventirads (sept, en comptant les deux be quiet!) haut de gamme (les prix s’échelonnent de 60 à 75 €), nous devrions tomber sur quelques bonnes surprises ! Vu les gabarits et les tarifs, il s’agit avant tout de ventirads conçus pour les overclockers et autres utilisateurs de CPU qui chauffent. Mais si c’était le cas des Core i7-900 et des plus gros Phenom II, la majorité des CPU modernes n’ont pas besoin de tels engins. Cela dit, si un Scythe Yasya à 40 € suffit aisément à refroidir un Core i7 2000, ces modèles plus performants ont du sens pour quiconque souhaite monter un PC à la fois très performant et très silencieux. Pour nos mesures de température, afin de mettre en exergue les écarts de l’un à l’autre, nous utilisons toujours notre plateforme Core i7-900 overclockée à 4 GHz (1,3 V).

Marque

be quiet!

Corsair

Prolimatech

Scythe

Thermalright

Xilence

Modèle

Dark Rock Advanced C1 et Pro C1

H60

Genesis

Susanoo

Archon

M612 Pro

Type

Tour et double tour 120 mm

Watercooling tout-en-un

Double tour, dont une à l'horizontal

A plat, géant

Tour 140 mm faible épaisseur

Tour 140 mm faible épaisseur

Compatibilité

AMD AM2/AM3 et Intel 775/1155/1156/1366

AMD AM2/AM3 et Intel 775/1155/1156/1366

AMD AM2/AM3 et Intel 775/1155/1156/1366

AMD AM2/AM3 et Intel 775/1155/1156/1366

AMD AM2/AM3 et Intel 775/1155/1156/1366

AMD AM2/AM3 et Intel 775/1155/1156/1366

Ventilation fournie

1* et 2* 120 mm be quiet! SilentWings (PWM 700 à 1700 tours)

1* 120 mm (PWM 1000 à 1700 tours)

N/A

4* 100 mm Scythe Kaze-Jyu (réglables de 500 à 2000 tours)

1* 140 mm Thermalright TY-140 (PWM 900 à 1300 tours)

1* 140 mm (Xilence)

Ventilation maximale

1* et 2* 120 mm

2* 120 mm

3* 120/140 mm

4* 100 mm

2* 120/140 mm

1* 140 mm

Matériaux

Base en cuivre niquelé, ailettes en aluminium

Base en cuivre, radiateur en aluminium

Base en cuivre niquelé, ailettes en aluminium

Base en cuivre niquelé, ailettes en aluminium

Base en cuivre niquelé, ailettes en aluminium

Base en cuivre niquelé, ailettes en aluminium

Caloduques

6* et 7* 6 mm

N/A

6* 6 mm

12* 6 mm

6* 6 mm

6* 6 mm

Dimensions (L x l x H)

122x95x167mm et 133x150x166 mm

120x152x27 mm (base) et 120x25 mm (radiateur)

146x216x160 mm

210x210x160 mm

155x78x170 mm

140x73x169 mm

Poids

1100 et 1550 g

N/A

800 g (sans ventilo)

1500 g

946 g

800 g env.

Prix

60 et 75 €

70 €

65 €

80 € (estimation)

75 €

65 €

106 PC Update


be quiet! Dark Rock Advanced et Pro Simple tour (Advanced) et double tour (Pro) 120 mm, 60 et 75 € Look Finition Refroidissement

Silence Fixation (Pro)

Prix ?

be quiet!, connu pour ses alimentations de qualité, se lance comme tant d’autres dans le cooling. Après son ventilateur Silent Wings PWM, voici les deux premiers ventirads CPU du constructeur, baptisés Dark Rock Advanced et Dark Rock Pro. Le premier est une tour 120 mm assez imposante, refroidie par un ventilateur. Le second est une double tour massive affublée de deux ventilateurs. Vendus respectivement 60 et 75 €, ils viennent jouer dans la cour des grands, un marché fortement concurrencé. Les deux modèles sont très réussis esthétiquement, tant par leur finition sombre intégrale que par la belle plaque alu de finition qui couvre le haut du radiateur. Purement esthétique dans le cas de l’Advanced, elle évitera tout accident et déformation pour le Pro, les doubles tours étant assez fragiles. En observant de plus près la qualité de fabrication et en particulier la fixation, il y a fort à parier pour que be quiet! confie la production de ses radiateurs à la même usine que Scythe. Le modèle Advanced s’installe comme une fleur, mais nous ne pouvons pas en dire autant du modèle Pro, si imposant que les vis deviennent peu accessibles. Avec un nombre impressionnant de six et sept caloducs, ces beautés peuvent-elles remettre en cause les standards établis ? Pas vraiment. Les Dark Rock sont des ventirads très silencieux, un silence qui se paye sur le refroidissement. Avec 10 °C de moins qu’un D14 en 12 V sur un Core i7 à 4 GHz (1,3 V), le Pro décevra tous les overclockers. Néanmoins, pour l’utilisateur en quête de silence, c’est autre chose ! A fond, ils font moins de bruit que pas mal de concurrents en 7 V ! Régulés automatiquement (PWM), les ventilateurs varient de 500 à 1 700 tours. Sur un CPU qui ne chauffe pas beaucoup, comme les Core i7 de seconde génération, les Dark Rock sont tout bonnement inaudibles, une vraie qualité. Entre les deux modèles, nous retiendrons le plus petit. Compatible avec plus de boîtiers et encore plus silencieux, il est aussi 10 à 20 € moins cher. Le gros n’est pas assez efficace pour mériter une telle dépense.

Corsair H60 Watercooling tout-en-un CPU, 70 € Refroidissement Fixation Bruit du ventilateur à fond Prix ?

Avec le H60, Corsair enrichit sa gamme Hydro d’un troisième modèle qui prend place entre les H50 et H70 que nous avons déjà testés par le passé. Nous ne sommes pas un grand fan de ces solutions de watercooling tout-en-un, un peu compliquées et chères par rapport aux meilleurs ventirads et nettement moins performantes qu’un bon watercooling haut de gamme assemblé maison. Ainsi, le H50 se fait battre par de nombreux radiateurs, quant au H70, il est effectivement très performant, mais à près de 100 € la bête, les clients ne se bousculent pas, d’autant que ces deux modèles sont assez bruyants avec leurs ventilateurs non régulés. Contrairement à ses aînés, le H60 a été développé en partenariat avec CoolIt Systems et ça se voit. Abandonnant la forme arrondie des précédents, le bloc est désormais carré et la base en cuivre massif adopte un design « microchannel » (ailettes très fines et très rapprochées pour maximiser la surface d’échange avec l’eau). La pompe est toujours intégrée au waterblock et le circuit livré complet et fermé, déjà rempli de liquide. La fixation, pas évidente sur les H50 et H70, est totalement différente et simplissime. Compatible tout socket, il pourra intéresser les fans d’AMD puisqu’il se monte avec la back plate d’origine et ne connaît pas le problème de sens de ventilation imposé par la majorité des ventirads tours. Le radiateur est nettement plus fin que sur le H70, mais son design a quelque peu évolué depuis le H50, quant au ventilateur de 120 mm, il a été amélioré pour souffler plus d’air au même niveau de bruit. A fond, il tourne à 1 700 tours. Côté performances, il enterre le H50 et se positionne quasiment au niveau des meilleurs ventirads CPU ! Vendu 70 €, ça peut sembler normal, mais ça n’était pas gagné d’avance ! Avec le ventilateur utilisé en vitesse minimale, il est silencieux (audible contre la tour, inaudible à 1 m) et conserve de bonnes capacités de refroidissement. Il n’offre pas le meilleur rapport qualité/prix du marché, mais c’est une alternative viable et originale aux ventirads classiques pour assembler un PC stylé.

PC Update 107


comparatif ventirads

Prolimatech Genesis Radiateur à la fois tour et à plat (!), 65 € sans ventilateur Look Finition Refroidissement Compatible avec les RAM hautes Gêne le port PCI-E 16x sur certaines cartes mères

Prolimatech sort un nouveau monstre, le Genesis. Ce radiateur au look original est une sorte de double tour dont l’une des deux aurait été tordue et remise à plat. Concrètement, il y a une tour 120/140 mm qui prend place vers l’arrière du boîtier, à proximité du ventilateur d’extraction, une autre à plat qui recouvre et refroidit la RAM, ainsi que les composants aux alentours. C’est un design que nous avons déjà aperçu chez Cooler Master et son impressionnant V10. Il est livré nu (sans ventilateur) mais vous pouvez en ajouter de 1 à 3, soit en 120, soit en 140 mm. Une base en cuivre nickelé, six gros caloducs, une finition parfaite, le Genesis en impose. Il pèse 800 g, c’est presque léger pour sa catégorie ! Il ne faut pas oublier d’ajouter le poids des ventilateurs, mais le V10 atteint 1,2 kg, le Dark Rock Pro testé plus haut culmine à 1,55 kg ! La fixation est la même que sur les autres Prolimatech, facile et efficace, bien qu’il faille tomber la carte mère pour poser la back plate. Alerte ! Le radiateur est si large (conçu pour recevoir un 140 mm) qu’il pourra gêner l’installation de la carte graphique sur certaines cartes mères. Si le tout premier slot est un PCI-E 1x, aucun problème. Mais si c’est directement le 16x, impossible d’utiliser un ventilateur de 140 mm, les griffes touchent alors le dos de la carte. Pire, si votre socket est à moins de 59 mm dudit slot, même le radiateur touchera. Et les performances alors ? Alors là, rien à dire, il y a de quoi rester bouche bée. Nous avons relevé des températures dignes des meilleures simples tours avec un seul ventilateur Noctua P12 et des doubles tours dès que l’on installe un second ventilateur. C’est la modularité d’usage qui fait la force du Genesis. Vendu 65 € (c’est moins que le Super Mega !), n’hésitez pas s’il est compatible avec votre carte mère. Si vous n’overclockez pas, vous pouvez vous contenter d’un seul ventilateur à 800 tours et inaudible sur la partie à plat (au-dessus de la mémoire) et du ventilateur de boîtier en extraction à proximité de la tour. Pour les Core i7-900 et Phenom II qui chauffent un peu plus, il faudra ajouter un second ventilateur, mais un 120 mm à 1 000 tours sur la tour suffit amplement.

108 PC Update

Scythe Susanoo Ventirad à plat 4 x 100 mm, 80 € Monstrueux Performant Fixation Fragile Bruyant à fond

En compétition avec le Cooler Master V10 ou le nouveau Prolimatech Genesis, Scythe avait déjà un monstre dans sa gamme, l’Orochi. Comme ces modèles n’étaient pas assez impressionnants, le constructeur japonais remet le couvert avec l’inqualifiable Susanoo. Ce véritable poids lourd est une sorte de ventirad à plat géant, dont la surface mesure 21 x 21 cm ! Dépassant le kilo et demi, il est refroidi par quatre ventilateurs de 100 mm, tous les quatre ajustables via un potard commun entre 500 et 2 000 tours. Vu la bête, Scythe a dû revoir sa fixation, il est nécessaire de tomber la carte mère pour l’installer, sauf si votre boitier dispose d’un accès pour le socket CPU. Et dans le cas d’une installation en dehors d’un boitier, pas facile de remettre les vis de la carte mère ou le 8 pins CPU après coup ! D’autre part, le Susanoo est si grand qu’il passe au-dessus de la carte graphique et là, sauf à posséder un boîtier avec fond de panier amovible, difficile de l’installer avant ! Mais en la glissant de biais et en soulevant un peu le radiateur, ça passe sans difficulté. Si la base du Susanoo est très bien finie, nous ne pouvons pas en dire autant des caloducs (fragiles vu leur longueur) et des ailettes fines et faciles à tordre. Le gainage des fils des ventilateurs est également très grossier, c’est courant chez Scythe mais particulièrement visible sur ce modèle hors norme. Les performances sont, vous vous en doutez, d’un bon niveau. Toutefois, si l’ensemble des composants de la carte mère (y compris la RAM) bénéficie du Susanoo, le processeur en lui-même n’est pas mieux refroidi qu’avec les meilleures tours 120 mm du marché. A 500 tours, il est inaudible, mais dès que l’on atteint 1 000 tours, c’est la limite. A 2 000 tours (à fond), c’est insupportable. Scythe qui offre toujours des rapports qualité/prix au-dessus de la moyenne aura toutefois du mal à trouver une clientèle pour un tel objet. Il ne démérite pas, mais sa taille le rend difficile à installer et incompatible avec les boîtiers les plus serrés et il ne bat aucun record de refroidissement.


Thermalright Archon

Xilence M612 Pro

Ventirad tour 140 mm, 75 €

Ventirad tour 140 mm, 65 €

Compact Prix ?

Finition

Refroidissement

Ventilateur

Sorti il y a quelques mois, l’Archon est la nouvelle monotour haut de gamme de Thermalright. Vendu quasiment au même prix que l’impressionnant Silver Arrow (double tour avec deux 120 mm), mérite-t-il d’être acheté ? Plus qu’un concurrent des Noctua NH-U12, des Prolimatech Super Mega ou des Thermalright Ultra 120, l’Archon se place en face du Prolimatech Armageddon. Il s’agit d’un ventirad assez fin (53 mm) qui ne condamne aucun slot mémoire, même en tenant compte de l’épaisseur du ventilateur. Pour compenser, il offre une plus grande surface et profite pleinement d’un ventilateur de 140 mm. C’est bien un 140 mm qui est livré, le fameux TY-140 PWM que nous avons récompensé dans notre best of de ventilateurs ! Celui-ci est régulé automatiquement (PWM) entre 900 et 1 300 tours. S’il est audible à fond, le bruit n’est pas très gênant et, sauf mauvaise ventilation ou gros overclocking, il n’atteint jamais cette vitesse. La fixation est identique à celle des derniers modèles de la marque, incluant le système de serrage forcé avec un outil spécial livré. Précisons que la fixation AMD est comprise, ce n’était plus le cas sur les derniers Thermalright. L’Archon est superperformant. Obtenant des températures CPU proches du Genesis (seulement 1 °C d’écart en monoventilo !), il est donc meilleur que l’Armageddon et surtout, il passe légèrement devant toutes les monotours. S’approchant des meilleurs ventirads du marché avec un format somme toute compact, il justifie finalement son prix. Pour les plus exigeants, une upgrade vers deux ventilateurs est possible, les griffes supplémentaires sont livrées (compatibles 120 et 140 mm).

Compact Prix

Xilence a sorti un nouveau ventirad hautes performances, le M612 Pro. A l’image de l’Archon, c’est un ventirad faible épaisseur qui accueille un ventilateur de 140 mm. De fabrication maison, ce dernier change un peu avec ces belles pales rouges et son logo gris sans inscriptions inutiles. Le radiateur n’a pas une finition aussi exceptionnelle qu’un Prolimatech ou un Thermalright, mais c’est tout de même d’un bon niveau, digne de Scythe par exemple. La fixation requiert le démontage de la carte mère, mais il n’y a pas de complications et le radiateur est bien maintenu (important, nous parlons de 1,3 kg !). Selon le sens, il pourra être gêné quelque peu par des radiateurs de mosfets anormalement hauts, non pas que les ailettes ne soient pas assez hautes, mais le caloduc situé à l’extérieur gêne parfois. Les griffes pour le ventilateur sont très souples, l’installation du ventilateur aisée. Ce dernier est ajusté en vitesse par la régulation PWM. Le ventilateur est bruyant en 12 V, mais très silencieux une fois réduit en 7 V (rien n’est livré pour le faire). Les températures relevées sont un peu décevantes après l’excellent Archon, mais elles ne sont pas mauvaises en soi. Nous sommes à peu près au niveau d’un Noctua NH-U12 équipé d’un ventilateur, un modèle de référence depuis des années. Toutefois, bien qu’il ait été annoncé à 60 €, nous ne l’avons trouvé en vente que de 65 à 70 €. C’est trop cher. Ce modèle est séduisant, mais sa place est autour des 50, 60 € au maximum, d’autant que le Noctua cité est livré avec deux réducteurs de bruit et un second ventilateur haut de gamme pour ce prix (60 €) ! Le Xilence M612 Pro n’a pas un bundle très séduisant, au contraire. Le tube de pâte thermique est tout juste utilisable pour une application, il n’y a pas de griffes pour un second ventilateur et pas de réducteur de vitesse, bien que la gestion PWM ne l’impose pas.

PC Update 109


comparatif ventirads

Températures CPU (°C)

Bruit (dB)

CNPS 11X

65

67

9900 Max

61 62

Polaris 120

Arrow

M612 Pro

66

69

Corator DS

32

61 61

Freezer 13

32

Susanoo

60 61

Gaia

32

62 61

H60

62

DR Pro C1

Jing 64

63

DR Adv C1

65 40

45

50

55

charge 4 GHz 12V

60

65

68 70

75

50 52 50 48

31

Loki

65

51

33

Archon

Genesis 2V

58

32

56

34

NH‐D14

32

NH‐U12 SE2

32 25

charge 7V

30

51 49 35

40

maxi

45

50

55

60

mini

Choix de la rédaction

C

’est une sensation douce-amère que nous avons après cette séance de benchs. D’un côté, nous obtenons beaucoup d’excellents résultats, de l’autre, aucun record n’est battu, si ce n’est celui de l’encombrement avec le Susanoo. Le ventirad qui nous a le plus impressionné est l’Archon de Thermalright. Parvenant à surclasser toutes les tours 120 mm et 140 mm, y compris les fameux Prolimatech Super Mega et Armageddon, il place la barre très haut pour une monotour. Heureusement, vu son prix. Car choisir l’Archon, c’est privilégier la simplicité de l’installation et des barrettes de RAM sans contrainte de hauteur, car pour le même tarif, il est possible de s’offrir les meilleures doubles tours (Noctua NH-D14 et Thermalright Silver Arrow) qui délivrent à la fois des performances supérieures et un rapport qualité/prix accru, ne serait-ce que par la présence d’un second ventilateur. Dans le même genre, le M612 Pro de Xilence fait bien pâle figure, mais il n’est pas si mauvais pour autant. Une petite baisse de prix vers 50 € et vous pourrez l’acheter sans hésiter. Dans son genre, le Corsair H60 nous a surpris. Bien plus intéressant que ses deux aînés, il est à la fois performant et facile à installer. D’un silence comparable aux ventirads de mêmes performances, c’est un choix à faire vis-à-vis du look du PC. Sacré progrès en tout cas, espérons que son tarif réduise encore un peu et il pourrait devenir une véritable référence.

110 PC Update

Enfin, en ce qui concerne les deux monstres, le Prolimatech fait encore une fois sensation. Il n’explose pas ses aînés, mais il offre plus de souplesse quant à l’installation et se révèle plus efficace en très faible ventilation (mode semi-passif avec un seul ventilateur lent, par exemple). A 65 €, il n’obtient pas le cooling du V10 qui reste la référence absolue avec le Corsair H70, mais ces deux derniers coûtent près de 100 € pièce, c’est hors catégorie. Le Genesis à 65 € complété avec un bon ventilateur à 13 € est certes cher, mais pas plus que ses congénères. En revanche, le Scythe Susanoo est plutôt décevant. D’une finition assez moyenne, très pénible à installer, il est trop imposant pour certains boîtiers et ne se distingue même pas sur le plan des performances. Bof bof.


Châssis PC Aluminium www.lian-li.com

SERIES

PC-X500F • 5.25” x 2, 3.5” internes x 6, 2.5” internes x 1 • ATX, Micro ATX • USB 3.0 x 4, E-SATA x 1, HD Audio • 243 x 606 x 415mm

PC-X2000F • 4 x 5.25”, 1 x 3.5" (via un convertisseur 5.25" vers 3.5"), 7 x 3.5" internes (SATA / SAS hot swap) • E-ATX, ATX, Micro ATX • USB 3.0 x 4, E-SATA x 1, HD Audio

PC-X500F

PC-X2000F

CHIC SERIES

MINI-Q SERIES

370mm 290mm

PC-A04B

Berceau pour disque dur amovible, permettant le montage de cartes graphiques de grandes dimensions

PC-Q08B

PC-Q07B

La Meilleure Qualité Distributeurs

www.bacata.net

Made in Taiwan


Test : SSD

SSD Intel 320 : la relève des X25-M Après une gamme SSD 510 très performante, Intel lance la série 320, des unités gravées en 25 nm qui viennent remplacer les populaires X25-M. Les performances progressent mais le constructeur va devoir faire un effort sur les tarifs.

112 PC Update

U

u même titre que sa série SSD 510 sur laquelle Intel avait exploité un contrôleur Marvell, le constructeur n’a pas développé de nouvelle puce pour cette gamme 320 (G3, Postville Refresh) et s’est contenté de reprendre le contrôleur maison des X25-M. Le firmware a, cela dit, été modifié pour supporter la mémoire Flash NAND à 25 nm, il ajoute aussi la protection des données contre les coupures de courant (ou la connexion hot-swap), ainsi que le cryptage AES 128 bits. La mémoire 25 nm a l’avantage d’être moins chère à produire et permet de créer des puces NAND de plus grande capacité. Elle est donnée pour 3 000 cycles d’écriture, contre 5 000 pour la 34 nm, un point qui n’est pas très problématique pour des usages courants, mais à souligner. La gamme 320 se décline en six capacités de 40, 80, 120, 160, 300 et 600 Go. Elle propose toujours une interface SATA 3 Gbps, dix canaux de transfert de données parallèles (cinq pour la version 40 Go) et une mémoire cache DRAM portée de 32 à 64 MB. Les débits en lecture et écriture diffèrent selon la capacité. Nous avons reçu la version 300 Go pour ce test, qui offre des taux de transfert séquentiels de 270 Mo/s en lecture et 205 Mo/s en écriture. Elle possède vingt puces NAND MLC Intel de 16 Go et est formatée en 279 GB sous Windows, soit 12,8 % de NAND en supplément, la moitié étant utilisée pour le wear leveling et l’am-

plification d’écriture, l’autre moitié pour la parité des données afin de pallier la panne éventuelle d’une puce mémoire. La version 600 Go monte à 220 Mo/s en écriture, la 160 Go affiche 165 Mo/s, 130 Mo/s pour la 120 Go, 90 Mo/s en 80 Go et 45 Mo/s en 40 Go. Cette dernière est aussi la seule à descendre à 200 Mo/s en lecture.

Synthèse des benchs Les débits bruts séquentiels maximums sont respectés, avec une moyenne de 268≈Mo/s en lecture et de 211 Mo/s de moyenne en écriture. La vitesse de copie de fichiers à partir d’une grappe RAID 0 de SSD SF-1200 qui le pousse dans ses derniers retranchements est appréciable. Le comportement sur les petits fichiers est bon et le transfert de données volumineuses incompressibles va plus vite que sur un SF-1200, il est aussi meilleur que les Corsair P3 128 Go et Intel 510 120 Go. L’installation de Photoshop et de Premiere, toujours à partir de notre grappe RAID 0, s’est quant à elle placée au niveau de la majorité des autres SSD, seul le 510 250 Go arrive à descendre sous la barre des 150 s. L’extraction de pistes audio/vidéo d’un rip Blu-Ray du SSD sur lui-même se montre, là encore, plus rapide que sur un SandForce 1200, mais elle reste loin derrière les SSD en SATA 6 Gbps. Les temps de chargement des programmes sont équivalents à ceux des SandForce 1200, seules les unités offrant de très grands débits en lecture sur une interface SATA


6 Gbps se démarquent légèrement. Le 320 n’est pas aussi doué dans des environnements aux accès multiples et exigeants que le SandForce qui se place devant tous les autres SSD, mais ce n’est pas très pénalisant et cela ne se sent pas pour des usages courants. Iometer met aussi en évidence que ses accès aléatoires en lecture comme en écriture sont un ton en dessous de la concurrence, sauf sur les fichiers de très petite taille. Comme tout SSD, les performances en écriture se dégradent avec le temps, mais tombent moins bas qu’avec un contrôleur Marvell et SandForce, par exemple. Après deux heures intensives d’Iometer en aléatoire, les débits affichaient 45 Mo/s de moyenne. Des taux de transfert qui seront rétablis avec le TRIM de Windows, ou à partir de l’outil Intel SSD Toolbox. Quant à la consommation, nous avons mesuré 3,1 W en charge et 0,8 W au repos, à comparer aux 0,9/5,3 xW du Intel 510 250 Go ou des 0,9/2,5 W d’un SF-1200 MXTech de 100 Go.

Débit en lecture (Mo/s, le plus haut est meilleur) 458,3 470,1 491,3

Intel 510 (250 Go)

MX Tech SF‐1200 (100 Go)

265,8 268,3 270

Intel 320 (300 Go)

264,8 268 269,4 0

Jérémy Panzetta

100

200

Minimum

151

400

500

600

Corsair P3 (128 Go)

153

Intel 320 (300 Go) MX Tech SF‐1200 (100 Go) 150

150

200

Moyenne

350

38,3

224

38,5 21

15,8

8,5

MX Tech SF‐1200 (100 Go)

20,7

15,6

9,3

Intel 320 (300 Go)

19,8

14,1

188

39,2 21,1

15 12,5

40,3

289 Crucial C300 (256 Go) 300

300

38,2

9,2

Corsair P3 (128 Go)

250

250

Maximum

20

14,7

6,7

Intel 510 (120 Go)

200

Extraction de pistes d'un rip Blu Ray

100

Temps de copie de fichiers et chargement (Secs, le plus bas est meilleur)

179

154 100

50

Intel 510 (250 Go)

155

50

0

Minimum

180 182

Crucial C300 (256 Go)

0

178 185,7 197,4

Maximum

132 145

Intel 510 (120 Go)

198,8 202,8 206,2

Corsair P3 (128 Go)

Installation CS4 et extraction de rip Blu‐Ray (Secs, le plus bas est meilleur) Intel 510 (250 Go)

206,9 211,4 220,2

Intel 320 (300 Go)

Intel 510 (120 Go)

300

Moyenne

218,7 222,2 225,9

Crucial C300 (256 Go)

324,9 343,1 350,1

Crucial C300 (256 Go)

242,9 258,2 260,3

MX Tech SF‐1200 (100 Go)

360,4 375,4 419,6

Corsair P3 (128 Go)

315 321,1 327,9

Intel 510 (250 Go)

392,5 406,1 441,8

Intel 510 (120 Go)

Des prix pas assez bas Si la progression face au X25-M est nette, le 320 300 Go se montre plus ou moins véloce qu’un modèle en SandForce 1200 selon les situations. Il peut donc être une alternative intéressante pour ceux qui ne sont pas encore équipés d’une interface SATA 6 Gbps, surtout si, comme l’annonce Intel, la fiabilité a encore été améliorée face aux précédents Postville qui ont une bonne réputation à ce niveau. Mais pour ceux qui possèdent du SATA 6 Gbps et qui recherchent avant tout les unités les plus rapides, il faut s’orienter vers les Intel 510 et imminents modèles à base de SandForce 2000, comme le Vertex 3. Il est d’autre part très probable que les unités 320 offrant des débits d’écriture plus faibles que cette version 300 Go ne soient pas au niveau des SandForce 1200. Et si Intel ne baisse pas les prix, ils vont alors manquer d’intérêt. Les rapports tarif/taille sont de 90/40, 170/80, 200/120, 290/160, 510/300 et 1 100/600 (€/Go). En comparaison, un SF-1200 se trouve à 95 € en 40 Go, 185 € en 90 Go et aux alentours de 200 € en 120 Go. Quant au Vertex 3, il est affiché en précommande à 175 € en 90 Go, 250 € en 120 Go et 290 € pour 180 Go. Au final, en attendant de pouvoir juger les Crucial C400/M4 et Vertex 3, nos références restent toujours les mêmes, à savoir un modèle en SF-1200, ou un Intel 510 plus cher si votre budget le permet, afin d’avoir les meilleures performances en SATA 6 Gbps.

Débit en écriture (Mo/sec, le plus haut est meilleur)

350

0

Installation CS4

5

10

Crysis

20,2

15

8,2

41,2 15

20

Seven

25

Gros

30

35

40

45

Petits

Accès aléatoires en écriture (Mo/s, les plus haut est meilleur)

IOMeter, accès multiples (IO/sec, le plus haut est meilleur) 30000

Intel 510 (120 Go)

25000

6,3

Corsair P3 (128 Go)

20000

5,9

15000

Intel 510 (250 Go) 5,7

10000

Intel 320 (300 Go) 5

5000

2

4

8

16

32

64

MX Tech SF‐1200 (100 Go)

Crucial C300 (256 Go)

Corsair P3 (128 Go)

Intel 510 (250 Go)

Intel 510 (120 Go)

Intel 320 (300 Go)

128

168,4 161,6

160

37,8

50

1 Mo

299

199,5 184,1

213,6

243,8

213 212,5 201

59,8

0,6

236,3

185,4

45,8

Crucial C300 (256 Go)

0

189 166,4

160

44

MX Tech SF‐1200 (100 Go)

1

133,7

43,8

2,6 0

138,5

46

100

128 Ko

150

32 Ko

200

4 Ko

250

300

350

512 octets

Les tests ont été effectués sur une plateforme Intel H67 avec Core i3-2100 et les derniers pilotes Intel RST.

PC Update 113


Test : disque dur

Hitachi 5K3000 3 To : le silence est d’or Après un premier disque dur 3 To en 7 200 tours/min, Hitachi dévoile sa version « green » 5K3000. Si l’on peut s’attendre à de faibles consommations et nuisances sonores, ses performances en font une nouvelle référence, à quelques bémols près.

H

itachi est actuellement le seul constructeur à proposer un disque dur 3 To en 7 200 tours/min. Mais avec cette nouvelle série 5K3000, il rejoint Western Digital et son WD30EZRS sur le segment des unités « green ». La gamme se décline en trois capacités de 3, 2 et 1,5 To. Elle embarque des plateaux de 667 Go, 32 Mo de mémoire cache, une interface SATA 6 Gbps et adopte l’Advanced Format 512e. Hitachi ne précise pas la vitesse de rotation des disques et indique que ces derniers exploitent la technologie CoolSpin, une optimisation du moteur de rotation apportant une balance entre performances, consommation et bruit. Il semblerait que la version 3 To tourne en fait à 5 700 tours/min, contre 5 940 tours/min pour les deux autres capacités. Le tarif de la version 3 To est à peu de chose près équivalent à celui du Caviar Green, soit environ 170 €. Les versions 2 et 1,5 To sont, en revanche, un peu plus chères, avec 90 et 75 €, contre 75 et 65 € pour les unités économes de la concurrence.

Synthèse des benchs Avec ses cinq plateaux de 667 Go, on s’attendait à mesurer de bons débits bruts sur ce 5K3000 3 To. Si la progression est nette face à la précédente génération, les taux de transfert ne se hissent pas au niveau de ceux de l’EcoGreen F4 2 To. Ainsi, on retrouve logiquement des temps de copie de fichiers plus élevés que chez Samsung, mais qui restent meilleurs que sur le WD30EZRS, dont le comportement sur les 114 PC Update

petits fichiers est médiocre. On peut faire le même constat sur le temps d’installation de Photoshop/Premiere à partir d’une grappe RAID 0 de SSD en SandForce 1200, où le 5K3000 fait mieux que le Caviar Green, mais se place derrière l’EcoGreen. En revanche, grâce à son meilleur comportement dans des environnements aux accès plus exigeants, comme le montre le test Iometer, il termine en première position sur le bench d’extraction de pistes audio/vidéo d’un rip Blu-Ray (du SSD sur lui-même) et se permet même de faire aussi bien que le Caviar Black 2 To. Les mesures de temps de chargement d’applications montrent la supériorité des unités 7 200 tours/min, avec une différence de près de 6 s pour charger le premier niveau de Crysis, entre la meilleure unité 7 200 tours/min et la plus lente des 5 400 tours/min. Mais le 5K3000 s’en sort bien à ce niveau et fait mieux que l’EcoGreen et le Caviar Green, aussi bien sur Crysis que Windows Seven. Un constat d’autant plus étonnant que cette unité 3 To affiche un temps de réponse élevé de plus de 20 ms, mais qui est visiblement bien compensé. Côté nuisances sonores, le 5K3000 est une fois de plus convaincant. S’il s’entend plus au repos que le Samsung, il est le plus discret en charge, avec des accès des têtes de lecture qui n’augmentent que très peu les nuisances sonores. Après deux heures de charge, sa température n’est pas montée à plus de 38,4 °C, contre 38 et 39 °C pour le Samsung et Caviar Green. Quant à la consommation, l’unité 3 To d’Hitachi est un peu plus gourmande au repos (5,5 W, contre 4,6 et 4,1 W) mais moins consommatrice que ses deux concurrents une fois en activité (7,5 W, contre 7,6 et 8,2 W).

Samsung ou Hitachi ? Puisque le 5K3000 3 To offre sans conteste de meilleures performances que le Caviar Green 3 To et puisque ce sont les deux seules unités de cette capacité disponibles pour le moment à cette vitesse de rotation, notre préférence va au modèle Hitachi. Mais si vous souhaitez avoir l’unité la plus rapide en termes de stockage pur, afin d’y placer vos fichiers d’installation de programmes et vos autres données de travail et multimédias, l’EcoGreen F4 de Samsung est plus approprié, si vous pouvez vous contenter de 2 To. Rappelons enfin que ces unités green, conçues pour consommer moins, limiter la montée en température et être plus silencieuses, ne sont pas idéales pour un disque système. Elles sont, en revanche, parfaites en tant que disques secondaires d’une machine, dans un PC serveur, un NAS ou encore un lecteur multimédia.


Tous les tests ont été effectués sur une plateforme H67 (Core i3-2100) avec les derniers pilotes RST Intel. Les tests de copie de fichiers et d’installation de programmes sont faits à partir d’une grappe RAID 0 de SSD en SF-1200. Débit en écriture (Mo/sec, les plus haut est meilleur)

Débit en lecture (Mo/sec, le plus haut est meilleur)

265,8 268,3 270

MX Tech SF‐1200 (100 Go) 74,6

7K3000 (3 To)

123,7

69,9

WD2002FAEX (Caviar Black, 2 To)

113,1

65,7

HD204UI (Ecogreen F4, 2 To)

52,9

5K3000 (3 To)

0

94,1

50

Minimum

Moyenne

200

250

300

7K3000 (3 To)

MX Tech SF‐1200 (100 Go)

100

Moyenne

200

419

40,3 27,3 25,6

50,9

29 27,4

53,4

26,4 28,8

400

500

600

Extraction de pistes d'un rip Blu‐Ray

49,2

12,2 30,1 31,3

WD30EZRS (Caviar Green, 3 To)

565

300

300

Maximum

12,5

WD2002FAEX (Caviar Black, 2 To)

440

200

250

21,1

15

5K3000 (3 To)

208 0

150

13,6

169

WD30EZRS (Caviar Green, 3 To)

110,4

100

7K3000 (3 To)

419

160

HD204UI (Ecogreen F4, 2 To)

133,4

11,5

182

WD2002FAEX (Caviar Black, 2 To)

144,9

Temps de chargement et de copie de fichiers (sec, le plus bas est meilleur)

345

177

5K3000 (3 To)

50

Minimum

289

154

0

86,7

159,9

131,9

97

49,3

Maximum

Temps d'installation et d'extraction Blu‐Ray (sec, le plus bas est meilleur) MX Tech SF‐1200 (100 Go)

103

56,7

5K3000 (3 To)

WD30EZRS (Caviar Green, 3 To)

150

111,8

62,5

HD204UI (Ecogreen F4, 2 To)

121,2

121,5

68,9

WD2002FAEX (Caviar Black, 2 To)

143,2

136,5

100

73,9

7K3000 (3 To)

158,4

142

98,4

52,3

WD30EZRS (Caviar Green, 3 To)

105,6

242,9 258,2 260,3

MX Tech SF‐1200 (100 Go)

80

14,4 32,4

HD204UI (Ecogreen F4, 2 To)

38,4

12,3 0

Temps d'installation CS4 (photoshop + premiere)

10

Crysis

IOMeter acces multiples (IO/sec, le plus haut est meilleur)

20

30

40

Windows Seven

48,6 50

Petits

60

70

80

90

Gros

Bruit (dB, le plus bas est meilleur)

350

46,5 46,1

5K3000 (3 To) 300

HD204UI (Ecogreen F4, 2 To)

47,4 44,2

250

WD30EZRS (Caviar Green, 3 To)

48,2 47,2

200

7K3000 (3 To)

49

52,8

150

WD2002FAEX (Caviar Black, 2 To) 100

1

2

4

8

16

32

64

HD204UI (Ecogreen F4, 2 To)

WD30EZRS (Caviar Green, 3 To)

7K3000 (3 To)

WD2002FAEX (Caviar Black, 2 To)

128

50,1 0

10

20

Charge

30

40

50

55,4

60

Repos

5K3000 (3 To)

PC Update 115


Test : cartes mères

ASRock Fatal1ty P67 Professional Asus Maximus IV Extreme Le P67 supersport Pas besoin de Z68 pour un PC 1155 au top ! Entre ASRock qui adopte un look hypergamer avec la Fatal1ty P67 Pro et Asus qui lâche un monstre ROG Extreme, laquelle achèterez-vous ? Découvrez deux des cartes P67 les plus sexy du marché.

I

ntel sort finalement le Z68 avant l’été. Ce nouveau chipset Intel pour Core de seconde génération (i3/i5/i7-2000) s’annonce prometteur puisqu’il va cumuler les qualités des actuels H67 (sorties vidéo, overclocking de l’IGP) et P67 (overclocking du CPU). Pour autant, ils ne disparaissent pas du catalogue. Quiconque souhaite assembler un beau PC pour jouer n’a que faire d’attendre le Z68. Quel intérêt y a-t-il à pouvoir overclocker l’IGP des processeurs si c’est pour utiliser une grosse Radeon ou GeForce ? Sauf surprise, les cartes mères Z68 n’auront rien de bien nouveau vis-à-vis des modèles déjà sortis, n’hésitez pas à continuer d’acheter du P67 ! Pour soutenir cette idée, nous essayons ce mois-ci deux des plus séduisantes cartes socket 1155 du marché, de vraies beautés pour les amateurs de rouge et noir.

ASRock, wow !

Fatal1ty P67 Professional

• Marque : ASRock • Modèle : Fatal1ty P67 Professional • Socket : 1155 • Chipset : Intel P67 • PCI-Express : 3 x 16x (8/8/4), 1 x 1x • PCI : x 2 • SATA : x 10 (dont 6 SATA 6 Gb/s) • eSATA : x 1 • ATA : x 2 • Réseau : x 2 Gigabit Ethernet (avec fonction Teaming) • Audio : Realtek ALC 892 avec sorties S/ PDIF optique et coaxiale • USB 3.0 : x 6 (dont 2 via prises internes vacantes) • USB 2.0 : x 12 (dont 8 via prises internes vacantes) • FireWire : x 2 (dont 1 via prise interne vacante) • Prises pour ventilateurs : x 6 (dont 2 PWM) • SLI/CF : oui, 2-way • Divers : rack USB 3.0 de façade, boutons Power/Reset/Clear CMOS • Prix : 225 € Look Equipement Trous pour ventirads 775 et 1155/1156 IDE, Floppy, COM Trop proche de la P67 Extreme 6

116 PC Update

Depuis des mois que nous racontons et démontrons les progrès qualitatifs des cartes mères ASRock, les efforts entrepris atteignent leur paroxysme avec cette P67 Professional, vendue sous la griffe Fatal1ty. Avec son jeu de couleurs principales : le rouge et le noir et son superbe radiateur de chipset biseauté et anodisé rouge foncé, on jurerait d’avoir une Asus ROG entre les mains ! Même les clips de rétention des ports PCI-E 16x sont les mêmes, ainsi que les ports

mémoire avec des clips d’un seul côté ! Seuls les condensateurs dorés dénotent, dommage. Et pour le coup, ASRock a vraiment été au fond des choses en allant jusqu’à passer en noir les prises d’alimentation ATX, les prises pour ventilateurs, les prises SATA-2 et tous les autres ports (PCI, USB, IDE, etc.). Point de prises USB ou SATA en bleu, cool ! Même les boutons Power et Reset sont lookés, en chrome avec le F de Fatal1ty. Mais la Fatal1ty P67 Professional n’est pas qu’un look ! L’équipement est très complet, quoiqu’il ne se distingue pas vraiment de celui de la P67 Extreme 6 vendue encore moins cher (180 € contre 225 €). A vrai dire, la ressemblance va plus loin : la P67 Professional est une P67 Extreme 6 relookée et améliorée par-ci par-là, après le passage du célèbre gamer Fatal1ty. Nous retrouvons donc les trois slots PCI-Express 16x dont deux sont utilisables pour des cartes graphiques (16/0 ou 8/8), le troisième étant branché en 4x seulement. Les six ports SATA (dont deux SATA 6 Gb/s) du chipset Intel sont complétés d’un contrôleur Marvell SATA 6 Gb/s (quatre ports de plus, sans RAID), six prises USB 3.0 (quatre à l’arrière, deux pour la façade), sans oublier le rack 3,5" livré dans le bundle pour deux prises USB 3.0 en façade et un emplacement 2,5" pour un SSD. La carte son est toujours la performante Realtek ALC 892 avec licence THX TruStudio Pro… qui ne sert pas à grand-chose.


Extrême mais pas trop ASRock a la bonne formule pour faire des économies là où il faut. Bien qu’elle arbore un look extrême, la carte n’embarque pas de composants extrêmes (par exemple : pas de VRM CPU analogique surpuissant) ni même de fonctionnalités extrêmes (par exemple : pas de points de mesure des tensions), mais à qui servent vraiment ces gadgets ? En revanche, l’essentiel est là, y compris le look et la qualité globale, un peu comme les versions Formula, pas trop chères, des Asus ROG. A 225 €, nous sommes simplement partagé entre l’envie de se ruer dessus (il n’y a rien de plus beau et mieux équipé à ce prix) et le dégoût de payer 50 € de plus pour une carte finalement identique à l’Extreme 6 aux couleurs et à quelques détails près. Concrètement, ceux qui n’ouvrent jamais leur PC et/ou se fichent de l’aspect n’ont aucun intérêt à payer plus cher pour celle-ci. Et dans l’absolu, l’Extreme 4 que l’on trouve à seulement 150 € est déjà bien suffisante, c’est pourquoi nous lui avions décerné une récompense en or. La Fatal1ty P67 Professional se résume donc à ça : êtes-vous prêt à payer quelques dizaines d’euros pour un look craquant ?

TriSLI pour la Maximus IV Alors que nous venons de faire l’éloge d’une

carte mère qui joue les extrêmes, passons à l’Asus Maximus IV qui l’est vraiment. Reprenant l’esthétique des dernières cartes de la famille Republic of Gamers, la M4E (Maximus 4 Extreme) est entièrement vêtue de rouge et de noir, avec des condensateurs brillants (limite chromés). Mais contrairement à la carte précédente qui est une carte milieu de gamme très bien équipée et lookée sport, cette Asus est un vrai modèle conçu à l’écoute des bidouilleurs et overclockers de tout bord (ce qui ne concerne pas franchement les gamers, une aberration de la gamme ROG). Ainsi, nous avons droit à la présence d’une puce nVidia NF200 qui démultiplie les 16 lignes PCIExpress du CPU afin de proposer trois ports pour cartes graphiques (16/16/0 ou 16/8/8). Pour rappel, la puce NF200 ne crée pas de miracle, la bande passante entre le vrai contrôleur PCI-E du processeur et la NF200 n’augmente pas (16 lignes PCI-E 2.0), mais ce chip proposant 32 lignes en sortie permet tout de même de bonnes prestations en SLI, car les cartes communiquent beaucoup entre elles et la bande passante qui les relie au CPU n’a que peu d’impact. Par rapport à une solution SLI ou triSLI sur X58 (qui bénéficie nativement de 32 lignes), il n’y a quasiment aucune perte de performances. Pour illustrer les gadgets extrêmes de ce genre de cartes mères, des petits switchs permettent d’activer/désactiver le port PCI-Express de votre choix, facilitant

ASRock utilise des contrôleurs USB 3.0 Etron Tech plutôt que les courants Nec, mais nous ne constatons pas de différences notables de performances.

La « touche » Fatal1ty Parmi les premiers gamers professionnels à avoir connu le succès, Fatal1ty est devenu un concept marketing, une marque. Ayant déjà travaillé avec divers constructeurs par le passé, comme Abit, Creative ou OCZ, Fatal1ty apporte aujourd’hui sa touche à la première carte typée gamer d’ASRock. Mais au-delà des logos, Fatal1ty, c’est quoi ? Du vent, purement et simplement. Dans le cas de la carte mère que nous essayons, la seule innovation est la prise USB Fatal1ty Mouse Port, c’est-à-dire la possibilité d’ajuster la fréquence de rafraîchissement de 125 à 1 000 Hz de n’importe quelle souris. Manque de bol, toutes les souris pour gamers dignes de ce nom en sont déjà capables ! Quant aux autres, les incompatibilités sont nombreuses. Pour le reste, ce n’est que du relookage, comme le logiciel d’overclocking sous Windows rebaptisé F-Stream ou le BIOS UEFI, dans lequel nous nous serions bien passé de la photo de Johnathan Wendel (alias Fatal1ty). Faire payer une carte mère plus cher pour financer cette licence, c’est bien dommage. Marketing, quand tu nous tiens…

Si les doubles BIOS sont fréquents, les doubles BIOS amovibles sont rares ! Pratique pour le bidouilleur qui se rate deux fois !

PC Update 117


Test : cartes mères

A l’aide des petits adaptateurs qui se branchent sur ces miniprises, la mesure de la tension sur la Maximus IV Extreme est très facile.

Fatal1ty P67 Professional

• Marque : Asus • Modèle : Maximus IV Extreme • Socket : 1155 • Chipset : Intel P67 + nForce 200 • PCI-Express : 4 x 16x (16/8/8/4), 2 x 1x • PCI : x 1 • SATA : x 8 (dont 4 SATA 6 Gb/s) • eSATA : x 2 • ATA : N/A • Réseau : x 2 Gigabit Ethernet • Audio : Realtek ALC 889 avec sortie S/ PDIF optique • USB 3.0 : x 8 (dont 2 via prises internes vacantes) • USB 2.0 : x 8 (dont 8 via prises internes vacantes) • FireWire : N/A • Prises pour ventilateurs : x 8 (dont 8 PWM) • SLI/CF : oui, 3-way • Divers : rack USB 3.0 de façade, boutons Power/Reset/Clear CMOS, Bluetooth • Prix : 330 € Look Accessoires et gadgets pour l’overclocking 3-way SLI Bluetooth Prix N’overclocke quasiment pas mieux qu’une carte à 100 €

118 PC Update

ainsi les tests en mono, SLI ou tri sans avoir à débrancher les cartes à chaque fois. Il y a également huit points de mesure de la tension pour un monitoring complet, ainsi qu’un switch « LN2 Mode » qui bouleverse légèrement la façon dont s’initialise la carte, afin de maximiser les chances de succès des démarrages par grand froid (CPU refroidi par azote liquide). Les boutons Power et Reset ont migré, comme sur les dernières ROG, en haut de la carte afin qu’ils ne soient pas masqués par une carte graphique double slot en cas de SLI, comme c’est généralement le cas. Enfin, les deux BIOS sont amovibles, ce qui permet de les remplacer plus facilement en cas de bêtise. La carte propose également la fonction ROG Connect, un port USB modifié qui permet d’ajuster l’overclocking en temps réel depuis son ordinateur portable ; ça permet, par exemple, de faire varier la fréquence CPU en plein 3DMark, en la mettant au maximum durant les tests graphiques et en réduisant un peu pour passer sans planter les tests CPU. Et si vous n’aimez pas les fils, il est même possible d’overclocker à distance en Bluetooth, depuis un autre ordinateur ou même un iPhone/iPad avec l’application ROG iDirect ! Au passage, ces contrôles d’overclocking à distance offrent également le luxe d’un monitoring complet, pratique pour jeter un oeil aux températures pendant un jeu lancé en plein écran. En un mot comme en cent, la M4E porte bien son suffixe de carte extrême.

Au top et pour longtemps Au-delà de ses prestations exceptionnelles en overclocking, la M4E est avant tout et surtout une carte haut de gamme et bénéficie donc d’un bon niveau d’équipement. Le stockage d’origine Intel est complété de deux prises SATA 6 Gb/s pilotées par un chip Marvell (total

de huit prises SATA dont quatre en 6 Gb/s). L’USB 3.0 foisonne, avec pas moins de six prises à l’arrière, en sus d’un header pour deux prises en façade. Comme chez ASRock, le rack en façade avec deux prises est livré. D’un point de vue des performances, ASRock fait un peu mieux qu’Asus car il y a un vrai contrôleur pour chaque prise (en l’occurrence, trois contrôleurs qui gèrent chacun deux prises, pour un total de six prises sur la P67 Professional). Sur l’Asus, il n’y a que deux contrôleurs doubles pour les huit ports, Asus « multiplie » ces prises avec des switchs VLI (nouveau nom de VIA), un peu à la manière d’une puce NF200 qui dédouble les lignes PCI-Express. Chaque port est capable d’atteindre le maximum de bande passante offert par la norme USB 3.0, mais si vous utilisez simultanément deux prises raccordées au même switch VLI, la bande passante sera donc divisée par deux. Dans la pratique et vu le petit nombre de périphériques à même d’exploiter de tels débits, c’est une bride qui n’en est pas vraiment une. L’arrivée prochaine du Z68 ne doit pas vous freiner. Asus a confirmé ne pas remplacer la Maximus IV Extreme qui est et reste la plus grosse carte pour le socket 1155. Une petite ROG Gene (microATX) va voir le jour en Z68, mais elle est nettement moins impressionnante que l’Extreme de ce test. Chez les autres, les seules concurrentes sont la superbe Gigabyte P67A-UD7 noir et or et la MSI P67 Marshall. Aucune n’offre autant de fonctions et d’accessoires conçus pour l’overclocking que l’Asus ; en revanche, elles n’ont pas à rougir d’un point de vue qualité de fabrication et leur équipement est même légèrement supérieur, au Bluetooth près. Sachant qu’au-delà de la manipulation, il n’y aura pas de différence d’overclocking pour un PC du quotidien (ni entre ces trois cartes à plus de 300 €, ni même avec les autres entre 100 et 300 !), l’achat ne se justifie que par le look, la compatibilité 3 GPU et le plaisir de posséder le top du top. Bien que vous ne risquiez plus de trouver de modèles avec un chipset bugué (B2) dans le commerce, Asus a pris le parti de renommer la version B3 en « 3.0 » avec un coin de la boîte qui l’indique clairement.

Thomas Olivaux

Le choix de la rédaction Les cartes les plus haut de gamme ont généralement du mal à obtenir une récompense en raison de leur tarif prohibitif. C’est pour cela qu’existe l’award Black qui récompense le top du top technique, même s’il n’a pas grand intérêt à l’usage ou qu’il coûte démesurément cher. Cette fois-ci, les deux cartes méritent une récompense et ce sont deux awards Silver que nous attribuons ! L’ASRock a échappé de peu à une récompense en or, mais la similitude avec l’Extreme 6 et le peu d’intérêt de la licence Fatal1ty, à part le look, modèrent un peu notre enthousiasme. Par rapport à une Asus P8P67 Deluxe, choisissez celle qui vous plaît le plus. Quant à la Maximus IV Extreme, elle est vraiment séduisante et superperformante. Son prix est trop cher pour que nous lui attribuions un award Gold, mais reconnaissons que les 330 € ne sont pas plus délirants que les 360 € de la version X58 ou les 340 € de la MSI P67 Marshall.


www.bacata.net

Battle is what I do

Performances thermiques et sonores optimales Système de montage sans outils breveté Conçu pour les Gamers et les professionnels

PC-K63

410mm 290mm

Panneau latéral avec supports pour ventilateurs 120/140 mm PC-K59

Compatible avec les cartes graphiques les plus longues Finition intérieure et extérieure avec revêtement noir

PC-K57

La Meilleure Qualité

www.lancoolpc.com

La gamme DragonLord K est conçue et fabriquée par Lian Li Industrial Co., Ltd. In Taiwan

www.LanCoolPC.com / www.lian-li.com

Made in Taiwan


Test : kit 2.1

Corsair SP2200 Compact, pratique et bon marché Après un SP2500 des plus impressionnant, Corsair investit l’entrée de gamme avec le nouveau kit d’enceintes SP2200. Débarquant sur le marché très concurrentiel des kits 2.1 entre 75 et 100 €, parviendra-t-il à s’imposer ?

L

’arrivée de Corsair sur le marché des kits d’enceintes pour PC s’est faite en grande pompe. Le kit haut de gamme SP2500 (220 €), testé dans PC Update n° 52, s’est imposé comme une référence absolue, cumulant qualité acoustique, puissance et tarif raisonnable. Seul le nouveau kit Soundscience (alias Antec) Rockus 3D 2.1 à 190 € prétend le concurrencer, les autres solutions qui délivrent un niveau de qualité au moins équivalent étant très chères (Creative Labs ZiiSound T6 à 400 €, Focal XS à 500 €). Dans un registre bien plus modeste, Corsair sort une seconde référence, le kit SP2200 qui ne coûte que 90 €. En matière d’enceintes PC, les kits 2.1 sont classables en cochonneries bas de gamme sous les 50 €, en entrée de gamme de 50 à 100 €, en milieu de gamme de 100 à 150 € et en haut de gamme passé les 150 € ; le SP2200 est-il à sa place et mérite-t-il d’être acheté ?

100 % fonctionnel

fiche technique

• Marque : Corsair • Modèle : SP2200 • Type : kit d’enceintes 2.1 • Satellites : haut-parleur 5 cm, 8 W • Caisson de basses : haut-parleur 16 cm, 30 W • Entrées/sorties : deux entrées analogiques (mini-jack et RCA), sortie casque • Divers : télécommande filaire • Prix : 90 € Prix Connectique Encombrement Longueur des fils des satellites Manque d’aigus

120 PC Update

Difficile de trouver la filiation entre le SP2500 et le SP2200. Le SP2200 est beaucoup plus petit que le SP2500 et ne lui ressemble pas du tout. Le caisson de basses, en bois noir plutôt compact de 23 x 25 x 18 cm avec event bass-reflex en façade, est animé par un boomer de 16 cm. L’ampli intégré délivre 30 W à ce dernier et 8 W à chacun des deux satellites. Ceux-ci, dans une petite coque plastique close de 9 x 14 x 12 cm, sont monohaut-parleurs. Ces petites membranes de 5 cm ont pour mission (impossible) de sortir quasiment tout le spectre, depuis les médiums bas jusqu’aux aigus les plus hauts ! Le satellite de gauche se branche au caisson (prise RCA), celui de droite à la fois au caisson (prise propriétaire) et au PC (miniJack). Cette seconde « enceinte » est affublée de deux boutons très acces-

sibles, le plus gros réglant le volume et le plus petit, tellement plus pratique qu’un potard placé au dos du caisson, ajuste la quantité de basses ! S’y ajoutent deux miniJack, une prise casque (brancher le casque coupe les haut-parleurs, le volume s’ajuste alors pour l’écoute au casque) et une entrée auxiliaire, pour relier un smartphone ou un baladeur par exemple (câble miniJack/miniJack fourni). Et si deux sources ne vous suffisent pas, le SP2200 dispose également, sur le caisson, d’une entrée supplémentaire en RCA stéréo.

Bien équilibré A ce tarif, il ne faut pas s’attendre à des prouesses acoustiques, le SP2200 manque un peu de tout, surtout de basses très basses et de vrais aigus. Contrairement au SP2500 qui souffrait d’un son presque trop neutre, ce SP2200 met en avant les sons des basses fréquences, afin de donner du punch, comme c’est la mode depuis quelques années. Pour que ça reste écoutable, pas besoin de dépasser la moitié du potard de basses, sauf à être posé sur du carrelage dans une pièce peu favorable aux sons les plus sourds. Ses maigres possibilités sont compensées par un équilibre global réussi. Il sature un peu passé les 3/4 de puissance, mais le niveau sonore est déjà bien assez élevé pour écouter de la musique dans une petite pièce. Dans un grand salon, le SP2200 est trop juste. Pour 90 €, le seul défaut sensible est l’absence d’aigus et par conséquence, de clarté. Ça ne perturbera ni les jeux vidéo ni les musiques modernes et électroniques, mais pour les autres styles, c’est un peu sourd. Un look neutre (plus beau que le SP2500 !), un faible encombrement et une connectique complète… pas de mode surround peu crédible, dans cette plage de prix, il ne connaît aucune concurrence sérieuse, les grands noms comme Logitech dépassant les 120 € pour faire mieux.

Thomas Olivaux


SoundScience Rockus 3D 2.1 Le son HQ par Antec

C

’est C’est au tour d’Antec de se lancer dans la fabrication de produits audio ! Prudente, la marque a préféré dissocier cette activité de son champ d’action traditionnel en créant une filiale baptisée Soundscience. Antec souhaite élargir ainsi de plus en plus vers les produits audio extraPC (barres de son pour home cinéma, docks pour iPod, etc.), comme c’est prévu pour l’été prochain. Nous testons le premier et seul produit de la jeune marque : le kit d’enceintes PC Rockus 3D 2.1.

et délivre beaucoup de détails, sans tomber dans l’excès d’aigus : l’écoute n’est jamais fatigante, un signe qui ne trompe pas. Le mode 3D, uniquement accessible en analogique, dénature tellement le son qu’il vaut mieux l’oublier. A part à fond, le Rockus 3D 2.1 ne sature pas et permet de très hauts volumes.

Une belle finition

Face à lui, quelques belles références. Le jeune Logitech Z623 fait bien plus plastique, mais il délivre un son presque aussi bon (un peu moins clair tout de même), pour un tarif de seulement 140 €. Corsair a un caisson dantesque, un kit plus puissant et proche de la perfection pour un prix à peine supérieur (225 €). Le Creative GigaWorks T3 est également un prétendant au titre. Pas le plus puissant, mais il offre également un son très détaillé, une bonne présentation stéréo et un design travaillé pour 170 €. Lequel retenir ? Pour une grande pièce, ou tout fan de boom boom (musiques électroniques), le Corsair SP2500 est imbattable. Son caisson de basses le rend également génial pour les films et les jeux d’action. Pour l’amateur de rock et de guitare électrique en général, le Rockus 3D 2.1 porte très bien son nom, mais entre le T3 et lui, c’est avant tout une question d’appréciation esthétique. Le Logitech est le moins séduisant tant sur le plan esthétique que de la qualité, mais il offre une prise casque bien pratique et un son homogène qui correspond à la fois à la musique, aux jeux et aux films. A vous de voir quel usage vous privilégiez, mais une chose est sûre, Antec commence bien !

Vendu 190 €, le Rockus 3D 2.1 est un kit PC haut de gamme. Le caisson de basses est en bois, on n’a pas encore fait mieux en rapport densité/ prix. Ses dimensions sont moyennes, il mesure 35 x 20 x 27 cm. Il accueille un woofer de 16 cm protégé par une toile noire et un ampli de 150 W, 100 pour le caisson et 25 par satellite. Ces derniers sont branchés par des fils trop courts (1,5 m chacun), mais ils sont aisément remplaçables puisqu’il s’agit d’une prise RCA côté hautparleur et de deux fils dénudés côté caisson. Ces deux satellites respirent la qualité dans leur tube d’aluminium. Il n’y a qu’un seul haut-parleur large bande de 5 cm. Le pod, petite télécommande, est branché au caisson par un câble propriétaire. Ce dernier permet d’allumer et d’éteindre le kit, de régler le volume et d’alterner entre le mode musique et le mode 3D (entrée analogique) ou de basculer sur l’entrée numérique. C’est d’ailleurs un des points forts du Rockus 3D, il cumule deux entrées analogiques (une miniJack et une RCA) et une entrée numérique (S/PDIF optique), si rare sur les kits PC. Ça permet de ne pas souffrir des sorties analogiques de qualité parfois douteuse sur les cartes mères assez anciennes. Attention, il n’y a pas de décodeur Dolby Digital et DTS, il faut envoyer un signal PCM déjà décodé par le PC !

Thomas Olivaux

fiche technique

• Marque : Soundscience • Modèle : Rockus 3D 2.1 • Type : kit d’enceintes 2.1 • Satellites : haut-parleur 5 cm, 25 W • Caisson de basses : haut-parleur 16 cm, 100 W • Entrées/sorties : deux entrées analogiques (mini-jack et RCA), entrée S/ PDIF optique • Divers : télécommande filaire • Prix : 190 €

Rock attitude Après le petit SP2200, trop sourd, l’écoute du Rockus 3D semble bien creuse. Après quelques heures pour s’habituer, le kit Soundscience sonne bon, très bon même. Si le caisson manque un peu de percutant, même sur son réglage le plus élevé (3 positions), il y a suffisamment de basses pour apprécier la majorité des styles musicaux. Les satellites, monovoies et monoamplifiés, contrairement au puissant SP2500, sont étonnamment bons, clairs et précis ! Le Rockus a une très belle présence stéréo

Tandis que le nombre de kits PC 5.1 ne cesse de diminuer, les 2.1 de qualité sont, au contraire, de plus en plus nombreux. Venant concurrencer l’impressionnant Corsair SP2500, le Logitech Z623 et le Creative GigaWorks T3, ce Rockus 3D a fort à faire.

A part la collerette chromée en plastique, les satellites sont en aluminium bien lourd. La télécommande est en plastique.

Effet stéréo très prononcé Beaucoup de détail Finition des satellites Entrées analogiques et numérique Caisson qui manque un peu de présence Fils satellites trop courts Mode « 3D » inutile PC Update 121


Test : cartes graphiques

Radeon HD 6790, HD 6670, HD 6570 et HD 6450 : jouer pour pas cher avec AMD ? Radeon HD 6800 castrée et petits GPU à la puissance de calcul en hausse sont au menu. De quoi proposer de nouvelles cartes graphiques intéressantes ?

A

près avoir revu le haut de gamme avec les Radeon HD 6900 et 6800, AMD s’attaque au milieu et au bas de gamme, avec pas moins de cinq nouvelles références basées sur un GPU de Radeon HD 6800 castré, ainsi que sur deux nouveaux petits GPU qui consistent en de légères évolutions des Radeon HD 5400 et 5600/5500. Parmi les Radeon HD 5000, les GeForce 200, 400 et maintenant 500, la situation est pour le moins confuse dans l’entrée de gamme. De très nombreux produits sont ainsi disponibles et en faire ressortir les plus intéressants peut s’avérer compliqué, d’autant plus que des déclinaisons plus ou moins officielles aux spécifications revues à la baisse sont là pour piéger le consommateur néophyte ou peu attentif. Nous-même en préparant ce dossier, nous nous sommes fait avoir par une GeForce 210 signée Gigabyte et équipée de 512 Mo « TurboCache ». En réalité, la carte ne dispose que de 128 Mo et puise le reste dans la mémoire du système, une horreur que nous pensions définitivement enterrée, pour le marché du détail tout du moins. Si la page produit du fabricant ne cache pas les spécifications de cette carte, nVidia ne fait aucune référence à cette possibilité et les revendeurs oublient très souvent de préciser ce détail. En dehors de ce cas extrême, le piège classique concerne la mémoire. Pour réduire les

122 PC Update

coûts, les fabricants de cartes graphiques sont souvent tentés d’embarquer une mémoire graphique nettement plus lente que celle définie par les spécifications, AMD et nVidia n’ayant jamais eu aucune intention de respecter le consommateur en garantissant un niveau de spécifications pour un modèle précis dans l’entrée de gamme. Même s’ils estiment inévitable de laisser cette marge de manoeuvre à leurs partenaires, il serait très simple de réserver un suffixe ou préfixe au respect strict des spécifications. Reste que le plus gros problème de l’entrée de gamme vient d’un trop grand nombre de déclinaisons, dont la plupart n’ont strictement aucun intérêt et ne servent qu’à alimenter la confusion et à saturer le marché, à tous les segments de prix. nVidia et AMD veulent ainsi pouvoir proposer un modèle par tranche de 5 €, le but étant de vous permettre, ainsi qu’aux fabricants de PC, de pouvoir dépenser tout le budget accepté pour la carte graphique. Si seuls des modèles à 50 € et à 100 € sont intéressants, AMD et nVidia veulent bien entendu permettre à celui qui dispose d’un budget de 80 € de le dépenser en totalité, et préfèrent le diriger vers un produit rentable et taillé pour ce budget que le convaincre qu’il est nécessaire d’ajouter quelques euros de plus. Pour notre part, nous ferons le tri sur la base de critères bien précis : lecture vidéo HD de qualité, jeux en qualité réduite (mais acceptable) et jeux en qualité élevée. Les demi-produits n’auront ici que peu de considération !


HD 6850

HD 6790

HD 5770

HD 5750

HD 6670

HD 6570

HD 6450

GTX 550 Ti

GT 520

Puce

Barts

Barts LE

Juniper

Juniper

Turks

Turks

Caicos

GF116

GF119

Technologie

40 nm

40 nm

40 nm

40 nm

40 nm

40 nm

40 nm

40 nm

40 nm

Fréquence GPU (MHz)

775

840

850

700

800

650

625-750

900

810

Fréquence du shader core (MHz)

775

840

850

700

800

650

625-750

1 800

1 620

Processeurs

192 x 5

160 x 5

160 x 5

144 x 5

96 x 5

96 x 5

32 x 5

192

48

Unités de texturing

48

40

40

36

24

24

8

32

8

ROP

32

16

16

16

8

8

4

24

4

Mémoire (Mo)

1 024

1 024

1 024

1 024

512/1 024

512-2 048

512/1 024

1 024

1 024

Bus mémoire (bits)

256

256

128

128

128

128

64

192

64

Fréquence DDR (MHz)

2 000

2 100

2 400

2 300

2 000

900-2 000

533-1 800

2 052

533-900

Puissance de calcul (Gflops)

1 488

1 344

1 360

1 008

768

624

200-240

691

156

Puissance de texturing (Gtexel/s)

37

34

34

25

19

16

5-6

29

7

Fillrate (Gpixel/s)

25

13

14

11

6

5

3

7

2

BP mémoire (Go/s)

119

125

72

69

60

27-60

8-27

92

8-13

Direct3D

11

11

11

11

11

11

11

11

11

Prix

160 €

130 €

110 €

100 €

85-95 €

65-90 €

40-50 €

130 €

50 €

La Radeon HD 6790 de référence, qui ne sera probablement pas commercialisée.

Radeon HD 6790 La Radeon reprend mot pour mot le principe de la Radeon HD 5830 : un GPU castré prend place sur le modèle le plus haut de gamme basé sur ce GPU. Ainsi, la Radeon HD 6790 embarque un GPU Barts LE, castré et inférieur à la Radeon HD 6850, dans une carte identique à la Radeon HD 6870 et qui a besoin de deux connecteurs d’alimentation 6 roches. Pourquoi placer un GPU fortement castré sur une carte graphique prévue pour le plus gros modèle ? Tout simplement pour pouvoir recycler un maximum de ces GPU, ceux qui sont partiellement défectueux, mais également ceux qui entraînent une consommation élevée. Cela permet également de pousser quelque peu la tension GPU pour atteindre une fréquence plus élevée et compenser en partie la désactivation de nombreuses unités d’exécution. Le GPU de la Radeon HD 6790 est ainsi cadencé à 840 MHz contre 775 MHz pour la Radeon HD 6850 et 900 MHz pour la Radeon HD 6870. La mémoire GDDR5 qui y est liée est, par ailleurs, cadencée à 1 050 MHz (2 100 MHz pour l’envoi des données), comme pour la Radeon HD 6870 et contre 1 000 MHz pour la Radeon HD 6850. La carte de référence en tout point identique à

la Radeon HD 6870, si ce n’est qu’elle est dépourvue d’autocollant, est silencieuse au repos et peu bruyante en charge, le calibrage de sa turbine profitant d’une consommation malgré tout plus faible que celle de sa grande soeur. Nous avons également pu tester un modèle HIS non overclocké, mais avec un design quelque peu plus intéressant, puisque la carte est plus compacte et encore un petit peu moins bruyante en charge, sans être silencieuse cependant. Comme la carte de référence, elle est commercialisée à 130 €.

Radeon HD 6670 Bâtie autour du GPU Turks, la Radeon HD 6670 est plutôt compacte et n’a pas besoin de connecteur d’alimentation, elle se contente de ce que peut lui fournir le port PCI-Express, soit 75 W au maximum. AMD a préparé deux designs de référence, le premier plein format monoslot et le second en low profile double slot. Son GPU est cadencé à 800 MHz, alors que sa mémoire GDDR5 est cadencée à 1 GHz (2 GHz pour les données). Par rapport à la Radeon HD 5670 qu’elle remplace, elle affiche donc des fréquences similaires et ne

La Radeon HD 6790 HIS existe également en version overclockée.

Vidéo HD Les capacités vidéo évoluées, bien qu’il ne s’agisse pas de la raison première de la conception des GPU d’entrée de gamme, peuvent devenir très intéressantes dans le cas de la mise au point d’un HTPC qui ne serait pas destiné au jeu, puisqu’elles sont peu gourmandes et disponibles en versions passives. Attention cependant à la bande passante mémoire, ainsi qu’à la puissance de calcul qui peuvent limiter la qualité du traitement des vidéos atypiques (cadence, désentrelacement, etc.), ainsi que les améliorations d’image telles que les filtres de réduction du bruit. Pour une qualité maximale, nous constatons, en général, qu’un bus mémoire de 128 bits ou de 64 bits en GDDR5 est nécessaire. Les Radeon HD 6400, 6500, 6600 et 6800, ainsi que les GeForce 400 et 500 affichent un support complet de l’accélération de tous les formats vidéo, ainsi qu’une prise en charge du transfert de tous les flux audio HQ. Les Radeon HD 5000 perdent, par contre, l’accélération de la lecture du MVC, le format vidéo dédié aux Blu-Ray 3D. PC Update 123


Test : cartes graphiques

Suivant l’utilisation de GDDR5 ou de DDR3, ainsi que suivant la quantité de mémoire, son prix devrait varier entre 65 et 90 €.

Chez HIS, la HD6670 sera équipée d’un ventirad similaire à l’Arctic Accelero L2 Pro.

se démarquera que par la présence de 20 % d’unités de calcul en plus, ainsi que par l’intégration de l’UVD 3.0. Annoncée à 85 €, elle devra faire face à de nombreuses concurrentes des générations précédentes. La version HIS que nous avons recu est refroidie par un ventirad similaire au Arctic Accelero L2 pro, mais plus petit. Il remplit parfaitement son office sur la HD6670 et se montre tout à fait silencieux.

Radeon HD 6570 Intégrant également un GPU Turks complet, la Radeon HD 6570 diffère de la Radeon HD 6670 par la fréquence de son GPU qui passe de 800 à 650 MHz. Dans sa version GDDR5, elle exploite la même mémoire, cadencée à 1 GHz. Elle existe, par contre, en version DDR3 cadencée à 900 MHz et qui offre une bande passante mémoire réduite de plus que moitié. Nous avons ici affaire à des fréquences identiques à celles de la Radeon HD 5570, dont la version GDDR5 introduite très tard est cependant peu répandue. La Radeon HD 6570 profite donc de ses 20 % d’unités de calcul de plus, ainsi que de l’UVD 3.0.

Chez HIS, seule la version DDR3 sera commercialisée en France. Low profile et passive, elle sera suffisante pour un HTPC et l’assume pleinement avec sa mémoire plus lente. La HD6570 GDDR5 sera en revanche au format normal et avec un radiateur différent, mais toujours passif.

Radeon HD 6450 Nouvelle carte d’entrée de gamme d’AMD, la Radeon HD 6450 affiche une puissance de calcul doublée par rapport à la Radeon HD 5450. Elle existe également cette fois en versions GDDR5 et DDR3, au lieu de GDDR3 et DDR2. Attention cependant, AMD n’a pas fixé de fréquences mais donne uniquement des plages : 625 à 750 MHz pour le GPU, 533 à 900 MHz pour la DDR3 et 800 à 900 MHz pour la GDDR5 (1 600 et 1 800 MHz pour l’envoi des données). Dans sa version la plus « musclée », sa consommation augmente significativement par rapport à la Radeon HD 5450 GDDR3. Elle est presque doublée, ce qui rend plus difficile la mise en place d’une version passive. Cela reste cependant possible à condition d’exploiter un radiateur plus imposant. C’est l’aspect vidéo qui profitera le plus en pratique de la puissance de calcul et de la bande passante mémoire en hausse, pour pouvoir afficher une qualité irréprochable. Suivant l’utilisation de GDDR5 ou de DDR3, ainsi que suivant la quantité de mémoire, son prix devrait varier entre 40 et 50 €.

GeForce GT 520

La Radeon HD 6570 de référence.

Réponse à la Radeon HD 6450, la GeForce GT 520 de nVidia embarque elle aussi un nouveau GPU. Ses spécifications ne sont cependant pas revues à la hausse, puisqu’il s’agit avec le GPU GF119 de proposer une version à bas coût, 50 €, de la version castrée

La GeForce GTX 520 passive signée Asus est l’une des seules à respecter la fréquence mémoire de 900 MHz.

124 PC Update


A gauche, la HD6570 GDDR5 chez HIS, à droite la version DDR3.

du GF108 exploitée dans la GeForce GT 420. Avec un bus mémoire de 64 bits et limité à la DDR3, cette GeForce GT 520 affiche une puissance de calcul en légère hausse par rapport à la GeForce GT 420, mais une bande passante mémoire en nette baisse par rapport à celle-ci, ainsi que par rapport aux GeForce GT 220. Si la carte de référence utilise un refroidissement actif, Asus propose cependant un modèle passif et low profile avec un large radiateur. Notez que si nVidia annonce une mémoire DDR3 cadencée à 900 MHz, les partenaires sont libres de descendre très bas, Gainward et Palit se contentent ainsi de 533 MHz. Couplé au bus mémoire 64 bits, ce modèle nous semble bien trop limité, y compris pour la vidéo HD.

Les GPU en détail Barts LE Barts LE est physiquement identique à Barts, le GPU des Radeon HD 6850 et 6870. Il intègre 1,7 milliard de transistors pour 224 unités de calcul vectorielles 5D, ce qui correspond à 1 120 unités de calcul simples en termes de débit. Comme pour toutes les Radeon, le rendement est cependant inférieur en pratique, la totalité du code à exécuter n’étant pas parallélisable. Ces unités de calcul sont organisées en 14 blocs appelés SIMD et chacun de ces SIMD intègre, par ailleurs, 4 unités de texturing. Derrière ce coeur d’exécution, prennent place 32 ROP, chargés d’écrire les pixels en mémoire et connectés à 4 contrôleurs mémoire de 64 bits qui forment un bus de 256 bits. Barts LE est une version de Barts destinée à rendre exploitables un maximum de « déchets », c’est-à-dire des GPU qui n’ont pas pu être validés pour devenir des Radeon HD 6850 ou 6870, soit parce qu’ils étaient partiellement défectueux, soit parce qu’ils ne montaient pas assez en fréquence ou encore parce qu’ils étaient trop gourmands. Pour cela, 4 SIMD sont désactivés, ce qui donne à Barts LE 160 unités vectorielles 5D équivalant à 800 unités simples et 40 unités de texturing. AMD a, par ailleurs, désactivé 50 % des ROP, les limitant ainsi à 16. Si le bus de 256 bits est conservé intégralement, il ne sera cependant pas exploité avec une pleine efficacité, puisqu’il est principalement alimenté par les ROP. Il est intéressant de remarquer qu’une

fois castré, Barts LE affiche une configuration identique à celle de Juniper, le GPU des Radeon HD 5700, en dehors du bus mémoire. Barts LE, présent dans la Radeon HD 6790, est par ailleurs validé pour une large plage de consommation, ce qui permet à AMD de recycler des GPU qui ont besoin d’une tension élevée ou qui souffrent de courants de fuite importants.

Turks Turks est une petite évolution de Redwood, le GPU des Radeon HD 5600 et 5500. Alors que ce dernier disposait de 5 SIMD, similaires à ceux décrits pour Barts LE, Turks en reçoit un sixième et intègre ainsi au total 96 unités de calcul vectorielles 5D (« 480 ») et 24 unités de texturing. Il conserve 8 ROP et un bus mémoire de 128 bits compatible avec la GDDR5. Attention, cependant, le ratio idéal pour profiter pleinement de cette mémoire est de 8 ROP par 64 bits. Au final, ce ne sont pas moins de 716 millions de transistors qui forment ce GPU, contre 627 millions pour Redwood.

Caicos

La Radeon HD 6450 de référence n’est malheureusement pas passive.

Alors que Cedar, le GPU des Radeon HD 5450, n’avait pas apporté de gain de puissance de calcul, elle était même en légère baisse par rapport à son prédécesseur, Caicos double la puissance de calcul et passe de 292 à 370 millions de transistors. Contrairement à tous les autres GPU AMD, Cedar reposait sur deux petits SIMD, équipés chacun de 4 unités de texturing, mais de seulement 8 unités de calcul vectorielles 5D. Pour Caicos, AMD reprend deux SIMD « standard » pour disposer de 32 unités de calcul vectorielles 5D (« 160 »). Avec 8 unités de texturing, la puissance à ce niveau n’évolue cependant pas. Il en va de même pour les ROP qui restent au nombre de 4 et connectés à un seul contrôleur mémoire de 64 bits.

GF119 Le GF119 est le nouveau GPU ultrabas de gamme. Grossièrement, il s’agit d’une version économique du GF108 castré, exploitée dans la GeForce GT 420 réservée aux fabricants de PC. Comme cette dernière, le GF119 dispose d’un seul groupe de 48 unités de calcul scalaires, de 8 unités de texturing et de 4 ROP. Son bus mémoire est, par contre, réduit de 128 à 64 bits et limité au support de la GDDR3. Le GPU Barts, 1,7 milliard de transistors.

PC Update 125


Test : cartes graphiques

Performances en entrée de gamme Nous avons tout d’abord voulu observer les performances de toutes ces solutions dans un environnement d’entrée de gamme, c’est-à-dire avec une qualité réduite mais que nous estimons acceptable pour profiter des titres récents. Nous sommes parti de l’utilisation d’un moniteur 1080p (1 920 x 1 080) en résolution native, ainsi qu’en 720p (1 280 x 720), puisqu’en entrée de gamme, il est en général nécessaire de réduire la résolution pour atteindre des performances suffisantes. Nous avons, par ailleurs, testé un mode de qualité jugé moyen dans cette seconde résolution, sans cependant activer d’antialiasing puisque le flou dû au redimensionnement rend peu utile l’utilisation d’un filtre d’antialiasing de qualité.

Mafia II (FPS)

Starcraft 2 (FPS) HD 6790

139 139

112

HD 6670

125

75

HD 6570 GDDR5

63

HD 6450 GDDR5

HD 6570 GDDR5

75 107

57

34 37

HD 5770

139 134

108

HD 5750 HD 5670 HD 5570

86

50

HD 5550

28

HD 5450

22 23

50

HD 5550

35 36

HD 5450 137

108

GTS 450 GT 440 GDDR5 44

GT 430

80

31 35

G210

14

19

94

GT 220 DDR2

36

20

40

720p moyen

60

102

84

70 0

80

720p ultra

100

8

24

120

140

160

1080p moyen

56

46

29

16 13

8800 GT

Starcraft 2 montrait des signes de limitation CPU autour de 140 FPS, néanmoins en 720p haute qualité, mais aussi en 1080p qualité moyenne, la HD6790 se montre plus rapide que la GTX550 Ti.

126 PC Update

15

G210

8800 GT

39

25

60

44 0

97

42

34

22

GT 430

52

47

32

GT 440 DDR3

60

77

51

117

93

59

GT 440 GDDR5

78

51 54

17 14

GTS 450

115 118

70

9

30

25

GTX 550 Ti

125 137

107

GT 440 DDR3

15

50

40

27

66

50

36

HD 5570

60

GTX 550 Ti

GT 220 DDR2

HD 5670

79

88

68

53

103

81

63

HD 5750

114 115

69

30

24

HD 5770

138

94

16

54

44

32

HD 6450 GDDR5

55

45

34

HD 6570 DDR3

72

58

52

40

110

84

66

HD 6670

88 111

65

HD 6570 DDR3

HD 6790

20

40

720p faible

60

720p élevé

75 80

100

120

140

1080p faible

Dans Mafia II en 720p, la GTX550 Ti devance la HD6790, mais la tendance s’inverse lorsque l’on passe en 1080p. En basse qualité, la HD5670 devance étrangement la HD6670, mais la situation se rétablit dès que les réglages se font plus exigeants.



Test : cartes graphiques

Shift 2 Unleashed (FPS)

Crysis 2 (FPS) HD 6790 HD 6670 HD 6570 GDDR5 HD 6570 DDR3

27

HD 6450 GDDR5

13

HD 5750

HD 5550

10

HD 5450

7

11

16 15

GT 440 GDDR5

34

24 23

15 19 10

G210

2

5

16

80

47

30

32 18

27

37

37

720p haut

40

71

51 60

48 48

GTS 450

38

48 47

GT 440 GDDR5

38 36 25

28 17

720p très élevé

4

9

22

100

120

31

19

20

720p faible

1080p haut

Dans Crysis 2, la HD6790 devance la GTX550 Ti d’une courte tête alors que la HD6570 égale tout juste l’ancienne HD5670. La remplacante de cette dernière n’arrive même pas à rattrapper la HD5750, quel que soit le niveau de qualité.

47

35

38 0

48 44

31

8800 GT 80

54

36

38

G210

68

46

GTX 550 Ti

GT 220 DDR2

88

63

21

15

GT 430

14

20

11

100

71

32

21

GT 440 DDR3

21

8800 GT 0

96

71 59

40

GT 220 DDR2

42

HD 5450

GTS 450

GT 430

58

HD 5550

48

GT 440 DDR3

68

HD 5570

21

GTX 550 Ti

61

42

35

23 20

HD 5670

39

29

20

63

43

HD 5750

57

40

74

51

HD 5770

77

54

42 30

90

65

48

HD 5570

36

HD 6450 GDDR5

HD 5770

HD 5670

38

HD 6570 DDR3

25

17

47

HD 6570 GDDR5

52

37

102

73 73

HD 6670

57

39

29

HD 6790

64

45

34

101

71

56

40

48 48 60

720p élevé

80

100

120

1080p faible

Pour une raison qui nous est inconnue, les GeForce semblent souffrir d’une forte limitation CPU dans Shift 2 Unleashed, la faute à des pilotes non optimisés probablement. Une fois n’est pas coutume, AMD devance nVidia dans ce jeu.

Performances en milieu de gamme Nous avons, par ailleurs, testé les cartes milieu de gamme avec un niveau de qualité élevé, en 1 920 x 1 200, ainsi qu’en 1 680 x 1 050 sans et avec antialiasing 4x, ce type d’écran étant encore utilisé par de nombreux joueurs. Si la Radeon HD 6790 devance assez facilement la GeForce GTX 550 Ti, elle affiche des performances plus proches de celles de la Radeon HD 5770 que de celles de la Radeon HD 6850. Elle se retrouve également derrière les GeForce GTX 460 et les Radeon HD 5850 et 5830. Vous noterez que les Radeon se comportent cependant nettement mieux que les GeForce dans Bulletstorm et affichent un coût relativement faible lors de l’activation de l’antialiasing 4x. Précisons, par ailleurs, que pour contourner un problème de performances de ce jeu, toutes les cartes ont été testées en 1 680 x 1 048 et non en 1 680 x 1 050, via la création d’une résolution personnalisée. 128 PC Update

ECP Gr http://w


Crysis 2 (fps)

Mafia II (fps)

HD 6870

HD 5850 HD 5830 31

HD 5750

37

30

HD 5750 42

35

GTX 460 1 Go

39

GTX 460 768 Mo

42

35

GTX 460 SE

42

33

GTS 450

29

25

8800 GT

20 0

10

20

1680x1050 très élevé

26 30

58

36

GTX 460 1 Go

53

GTX 460 768 Mo

52

GTX 460 SE

36

47

30

8800 GT 40

50

1920x1200 très élevé

60

70

1680 extrême

80

31

24 0

10

20

1680x1050 élevé

30

38

75

48

1920x1200 élevé

45

GTS 450

31

60

70

80

1680 AA4x élevé

90

25 0

20

1680x1048 élevé

30

70

55 66

49

47

8800 GT 50

53

49

GTX 460 SE

37 40

46 40

40 39

GTX 460 768 Mo

67

54

37

48

GTX 460 1 Go

71

57

44 42

GTS 450

30

HD 5750

60

52

43

GTX 550 Ti

82 72

67

54 55

HD 5770

58

46

65

65

HD 5830

55

77 74

63

50 52

HD 5850

47

39

31

GTX 550 Ti 47

46

37

78

61

52

41

HD 5770

59

HD 6790 68

56

HD 5830

43

35

30

25

GTX 550 Ti

HD 5850

51

42

37

HD 5770

63

53

44

86

69

HD 6850

59

48

38

HD 6870

71

59

49

HD 6790

83

70

59

HD 6850

48

39

33

HD 6870

57

47

38

HD 6790

68

57

47

HD 6850

Bulletstorm (fps)

65

50

45

34 39 40

60

1920x1200 élevé

80

100

1680 AA4x élevé

Car tes Mères ASRock Z68 / P67 / H67 / H61 Series

Inclus gratuitement 1 x Panneau de façade USB 3.0

Z 6 8 E x t r e m e 4 C h i p s e t I n t e l Z 6 8 A T X

Inclus gratuitement 1 x Panneau de façade USB 3.0

F a t a l 1 t y P 6 7 P r o f e s s i o n a l C h i p s e t I n t e l P 6 7 A T X

Inclus gratuitement 1 x Panneau de façade USB 3.0

Z 6 8 E x t r e m e 4 C h i p s e t I n t e l Z 6 8

P 6 7 E x t r e m e 4 C h i p s e t I n t e l P 6 7 A T X Inclus gratuitement

1 x Télécommande MCE 1 x Récepteur CIR multi-angles Antenne WiFi 2.4 GHz ASRock

H 6 7 M I T X / H T C h i p s e t I n t e l H 6 7 M i n i I T X

Boostez vos performances en USB

Lucid Vir tu TM

Intel Smar t Response

On/Off Play

XFast USB

H 6 1 M / U 3 S 3

C h i p s e t I n t e l H 6 1 M i c r o A T X

w w w. a s r o c k . c o m

‧ Les spécifications sont susceptibles d'être modifiées ‧ Les marques et dénominations des produits sont la propriété de leurs sociétés respectives ‧ Toute utilisation autre que celle prévue par le fabricant n'est pas garantie

ECP Grossiste informatique http://www.europ-computer.com/

Acadia http://www.acadia-info.fr/

Textorm http://www.textorm.com/

Rejoignez nous sur Facebook


Test : cartes graphiques

Quelle carte pour jouer ? Pour la vidéo ? Si vous comptez jouer, un certain niveau de performances est nécessaire. Il est toujours frustrant d’entendre des fabricants et des vendeurs conseiller un modèle très bas de gamme, sous prétexte que c’est « suffisant pour jouer un peu », au lieu d’avoir l’honnêteté de dire que ce n’est pas un produit adapté au jeu. Il est d’ailleurs tentant pour AMD et nVidia d’avancer les performances en jeux de leurs derniers modèles d’entrée de gamme, pour essayer de leur donner un intérêt face aux solutions intégrées aux CPU Intel. AMD, n’ayant pas peur du ridicule, s’avance même à parler de jeu en surround, sur trois écrans, avec sa Radeon HD 6450. Les Radeon HD 6450, GeForce GT 520 et autres produits de cette catégorie sont mis au point par nVidia et AMD, ce n’est pas pour répondre à un besoin des consommateurs, ni à une demande particulière d’une niche telle que les HTPC. Le but est d’écouler des GPU par camions entiers, en grappillant quelques dollars sur les PC d’entrée de gamme vendus en supermarchés, qui ne demandent rien de plus que d’afficher un chiffre Consommation (watts) à la couleur nouvelle (Radeon HD 6000) et 19 141 autant de mémoire 20 107 que possible. Cela 19 122 n’empêche cepen11 61 dant pas la Radeon 11 HD 6450 d’être une 56 10 excellente solution 41 pour le HTPC, tout 9 29 du moins pour les 20 142 versions passives. 22 140 Contrairement à la 18 92 GeForce GT 520, 17 elle dispose de suf76 14 fisamment de puis56 sance de calcul et 10 36

HD 6870 HD 6850 HD 6790 HD 6670 HD 6570 GDDR5 HD 6570 DDR3 HD 6450 GDDR5 HD 5850 HD 5830 HD 5770 HD 5750 HD 5670 HD 5570

7

HD 5450 GDDR3

17

GTX 460 1 Go

16

GTX 460 768 Mo

15

GTS 450

15

GT 440 GDDR5

12

GT 440 DDR3

13

Terminons en mentionnant deux autres produits extrêmement intéressants de par un rapport performances/prix sans concurrence : les nouvelles Radeon HD 5850 et 5830 Xtreme de Sapphire. Le partenaire d’AMD a négocié l’achat des derniers stocks de ces anciens GPU et les a écoulés à un prix cassé : 120 € pour la Radeon HD 5850 Xtreme, soit un prix moins cher qu’une Radeon HD 6790 pour plus de performances qu’une Radeon HD 6850, et 90 € pour une Radeon HD 5830 Xtreme. Il n’y en aura pas pour tout le monde !

Benjamin Bouix

135 145

10

G210

10

Consommation

150 105

A l’aide d’un équipement adapté, nous avons mesuré la consommation des cartes seules, au repos ainsi qu’en charge sous 3DMark06.

69 49

8

GT 220 DDR2

Si la consommation au repos reste relativement stable pour les nouvelles petites Radeon par rapport aux précédentes, la consommation en charge augmente par contre quelque peu, voire significativement pour la Radeon HD 6450 qui a vu sa puissance de calcul doubler.

48 32 17 50

8800 GT 50

157 100

Repos

130 PC Update

Plus haut dans la gamme, ce sont les GeForce GTX 460 et les Radeon HD 6850 premier prix qui auront notre préférence, grâce à un rapport performances/prix plus avantageux que celui des GeForce GTX 550 Ti et des Radeon HD 6790. Ces modèles de la génération précédente restent d’excellentes références pour les joueurs.

176

15

GTX 550 Ti

0

Le très bas de gamme remplissant pour la première fois parfaitement le rôle HTPC, les solutions juste au-dessus perdent un point d’intérêt, voire leur seul intérêt. Les Radeon HD 6570, peu importe leur version, ne nous semblent pas suffisantes pour le jeu, alors que la Radeon HD 6670 rattrape en prix les Radeon HD 5750, nettement plus véloces. Pour jouer, c’est la première carte que nous vous conseillerons, suivie par la Radeon HD 5770. Vous perdrez, certes, la prise en charge de l’accélération de la lecture des Blu-Ray 3D, mais si votre système est destiné à jouer, il disposera d’un CPU adapté à cette tâche. Notez que ces Radeon HD 5700 ont été renommées en Radeon HD 6700 pour les fabricants de PC et pourraient l’être également en vente au détail d’ici quelque temps. Il s’agit dans tous les cas des mêmes produits.

15

GTX 560 Ti

GT 430

de bande passante pour afficher une image irréprochable et d’une prise en charge complète des formats vidéo les plus gourmands.

3DMark 06

150

200

Comme vous pouvez le remarquer, la consommation au repos a très nettement évolué depuis la GeForce 8800 GT !



Test : boîtiers

Corsair Obsidian 650D CM Storm Enforcer

Troisième déclinaison de l’excellente gamme Obsidian, le 650D de Corsair se dévoile enfin et montre une fois de plus le savoir-faire du constructeur. Cooler Master a, quant à lui, lancé l’Enforcer, un boîtier dans la lignée du HAF 912 au look retravaillé.

fiche technique

• Nom : Obsidian 650D • Constructeur : Corsair • Type : moyenne tour • Compatibilité carte mère : ATX, microATX • Emplacements 5,25 pouces : 4 • Emplacements 3,5/2,5 pouces : 6/6 (communs) • Slots d’extension : 8 • Ventilateurs : 200 mm en façade, 120 mm à l’arrière, 200 mm en haut • Connectique : 2 x USB 3.0, 2 x USB 2.0, 1 x FireWire, casque et micro • Dimensions : 546 x 521 x 229 mm • Poids : N.C. • Prix : 175 € Régulation de quatre ventilateurs Deux USB 3.0 déportés (externes) Rack SATA 6 Gbps externe Excellente organisation des câbles Emplacement pour watercooling 240/280 mm Système d’ouverture des portes Très bonne qualité de fabrication/finition Pas d’éléments antivibration pour l’alimentation Prix

132 PC Update

I : Corsair Obsidian 650D

B

ien qu’assez chères, les grandes tours Obsidian 800D et 700D de Corsair avaient reçu notre choix de la rédaction, grâce à des prestations complètes et des finitions irréprochables. Nous attendions donc avec impatience la déclinaison moyenne tour 650D, reprenant à peu de chose près leur design et leurs matières. Elle conserve des lignes angulaires, une robe noire, un châssis en acier, une façade recouverte d’aluminium et dispose d’une ouverture vitrée sur sa porte gauche. Le look est sobre, peut-être trop pour ceux qui aiment les modèles plus tape-à-l’œil, mais le boîtier fait forte impression, que ce soit au niveau des plastiques, des peintures ou de la qualité de fabrication. Au même titre que le 700D, le 650D se dispense des quatre racks SATA de façade du 850D. II propose à la place un emplacement SATA 6 Gbps hotswap externe à l’avant du capot, caché sous une trappe en plastique. Un régulateur à trois positions capable de contrôler jusqu’à quatre ventilateurs est également présent dans ce logement. La première baie 5,25 pouces est condamnée puisqu’on y trouve les ports déportés. Quatre ports USB 2.0 sont disponibles, dont deux USB 3.0 externes à relier à l’arrière de la carte mère, un FireWire et les prises casque/micro. L’esthétique de la façade se

démarque par une grande grille inférieure se délogeant facilement par une pression sur sa partie supérieure. Elle est associée à un filtre à poussière amovible et lavable. A l’arrière, deux passages protégés sont présents pour des tuyaux de watercooling, ainsi que huit slots d’extension et un filtre à poussière extractible placé sous l’alimentation. Les portes profitent, quant à elles, d’un système d’arroches rapides sans vis très efficace hérité du boîtier Graphite 600T, elles basculent par le haut après une pression sur les deux loquets.

Un montage impeccable Le 650D reprend l’architecture interne du 600T, ce qui en fait donc une sorte d’hybride de la gamme Obsidian et Graphite. Ce châssis nous avait déjà convaincu, pas de surprise donc, le montage de la configuration est un vrai plaisir. Il n’y a pas besoin de prêter attention à la taille du ventirad ou à la longueur des cartes graphiques et des alimentations,

La cage supérieure des unités de stockage est amovible et peut se déporter près de l’alimentation.


on peut juste regretter l’absence d’éléments antivibration pour l’alimentation et de fixations sans outils pour les cartes filles.

650D

Prix

Refroidissement 5 4 3 2 1 0

Finition

Bruit

Espace

Montage

De bonnes températures Le 650D est refroidi par trois ventilateurs, deux 200 mm à l’avant et sur le capot, et un dernier 120 mm à l’arrière, tous à connectique 3 pins. Le 200 mm supérieur peut être échangé pour deux 120 mm ou deux 140 mm. Il est aussi possible d’y loger un radiateur de watercooling de 240 ou 280 mm, qui, contrairement au 600T, peut être plus épais grâce à un espace plus large entre la carte mère et le capot. Au minimum, la ventilation n’est pas silencieuse, un souffle audible est présent, mais il ne dérange pas les oreilles. Les températures obtenues sur notre configuration entièrement passive sont bonnes, d’autant plus que nous n’avions pas supprimé la baie de stockage supérieure, pour que le flux d’air du 200 mm avant pénètre mieux dans le boîtier et dissipe encore quelques degrés supplémentaires, notamment sur la carte graphique. Au maximum de leur rotation, les nuisances sonores sont bien plus présentes, presque bruyantes, sans être pour autant insupportables, et les températures en profitent bien avec 6 °C de gagnés sur le GPU et plus de 8 °C sur le CPU.

l’espace interne s’adapte à n’importe quel type de composants. De base, le boîtier accepte les GPU de 34 cm, soit l’énorme majorité des modèles actuels. Si besoin, vous pouvez déporter la cage de stockage supérieure en bas du boîtier, à côté de l’alimentation, pour gagner en profondeur. Les deux grandes baies à disques durs sont amovibles, fixée par des vis à main pour celle du haut, et peuvent chacune accueillir trois unités 3,5 ou 2,5 pouces. Elles sont équipées de tiroirs dans lesquels les unités se logent Températures °C sans outils et dont les vibrations sont limitées par des rondelles de silicone. Les lecteurs optiques 33 bénéficient aussi d’accroches 34 HDD charge rapides par clips, les cartes filles 35 se fixent, quant à elles, avec 30 des vis à main. Pour organiser 31 HDD repos les câbles, le panier de la carte 32 mère ne présente pas moins de huit ouvertures bien agencées 78 et protégées par du caoutchouc. 84 GPU charge 91 Deux autres passages sont présents, un dédié au fil 4/8 pins 38 de l’alimentation à passer der41 GPU repos rière le panier et un pour les 44 connectiques des ports déportés et de la régulation. Grâce aux 76 différents ergots ajoutés derrière 84,5 CPU charge 87,5 le plateau, qui supporte au passage une trappe pour accéder au 36,8 socket processeur, à l’espace 38,8 CPU repos confortable disponible avec la 41,3 porte droite, et aux serre-câbles 0 20 40 60 80 100 livrés, le câblage se fait aussi rapidement que proprement. En bref, il n’y a pas grand-chose à 650D (max) 650D (mini) Enforcer reprocher en termes de prestaConfiguration de test : plateforme X58 avec Core i7-920 et Thermalright HR-02, SilverStone 450 W passive, Sapphire Radeon HD5670 passive, Seagate 7200.11 1 To. tions et d’agencement interne,

Deux grands filtres à poussière extractibles sont présents en façade et sous l’alimentation.

Le système d’ouverture des portes hérité du Graphite 600T est aussi pratique qu’efficace, tous les constructeurs devraient s’en inspirer.

Un rack SATA 6 Gbps hot-plug est présent sur le capot, sous une trappe plastique. Ce logement supporte également le switch à trois positions de la régulation.

Les deux ports USB 2.0 déportés sont externes et à connecter à l’arrière de la carte mère.

PC Update 133


Test : boîtiers

Enforcer

Prix

Refroidissement 5 4 3 2 1 0

Finition

Bruit

Espace

Montage

De base, le 650D accepte les composants les plus longs et les plus volumineux, ainsi qu’un radiateur de watercooling de 240 ou 280 mm.

Un peu cher

Bien que l’esthétique du 650D soit basée sur la gamme Obsidian, l’architecture interne est celle du Graphite 600T.

Pour environ 25 € de plus que le 600T et 60 € de moins que le 700D, le tarif du 650D se place plutôt bien dans le catalogue Corsair. Alors que le 600T n’était pas exempt de défauts, notamment sur l’efficacité de la régulation et l’épaisseur limitée pour un radiateur de watercooling, ce 650D fait presque un sans-faute et est fortement recommandable. Certes, tout le monde n’est pas prêt à mettre 175 € dans un boîtier, surtout dans la catégorie moyenne tour où l’on trouve des modèles bien conçus aux alentours de 90 € (CM 690 Advanced II, Lancool DragonLoard, Fractal Design Define R3), et aussi parce que vous avez accès à de grandes tours pour moins cher (NZXT Phantom, Fractal Design Define XL, CoolerMaster HAF-X), mais c’est le prix de la tranquillité en termes d’intégration, de montage et d’évolutivité, sans compter la qualité de fabrication/finition et les matières un peu plus nobles que d’ordinaire.

frontal et respirer le boîtier. Le capot présente un vide-poches devant lequel sont placés le bouton d’allumage, les diodes d’activité et les ports déportés. Deux USB 2.0 et les prises casque/micro sont présents, on trouve également deux USB 3.0 au format header. Ce connecteur devra être relié en interne à la carte mère pour peu qu’elle en dispose, car Cooler Master ne livre pas d’adaptateurs pour les convertir en externes ou en USB 2.0. L’arrière du boîtier reste classique et présente trois passages protégés pour des tuyaux de watercooling, ainsi qu’un huitième slot d’extension placé à la verticale. Celui-ci servira, entre autres, à sécuriser ses périphériques USB : clavier, souris et casque en LAN party, à l’aide du bracket Storm Guard fourni.

HAF 912 inside A l’ouverture du boîtier, nous ne cachons pas une petite déception. L’architecture de l’Enforcer est, en effet, en tout point identique à celle du HAF 912. Non pas que le châssis soit mauvais, mais on aurait espéré quelques évolutions ou modifications. On retrouve donc un agencement interne bien pensé, pouvant accueillir n’importe quel ventirad ou alimentation, le GPU ne devra, lui, pas dépasser 28 cm de longueur. Mais il est possible d’enlever la cage de stockage principale pour loger

II : CM Storm Enforcer

Le châssis de l’Enforcer est exactement le même que celui du HAF 912.

134 PC Update

Vendu sous la marque CM Storm de Cooler Master, l’Enforcer est le dernier-né des modèles pour gamers du constructeur. Niveau esthétique, les lignes de cette moyenne tour sont plus douces que d’habitude, avec une façade en rondeur, dont le moulage plastique peut faire penser au casque d’Iron Man. Elle supporte une porte vitrée et sa partie avant est équipée d’une demi-porte battante, ainsi que de quatre ouvertures grillagées laissant apercevoir la lumière rouge du ventilateur LED

Les deux ports USB 3.0 adoptent un format en header. Il faudra donc avoir le connecteur adéquat sur la carte mère pour les exploiter.


fiche technique

Le bas de la façade et les baies 5,25 pouces bénéficient de filtres à poussière.

Des éléments antivibration sont présents pour l’alimentation et sur les rails des unités 3,5 pouces.

n’importe quelle carte graphique. Cette grande baie, qui peut être placée aussi bien dans la longueur que dans la largeur du boîtier, supporte quatre emplacements pour des unités 3,5 pouces. Dommage qu’il faille sortir le tournevis pour la déloger, des vis à main auraient été plus pratiques. Une seconde cage à deux baies est présente juste en dessous. Les disques durs 3,5 pouces s’y insèrent à l’aide de rails et un adaptateur 3,5 pouces vers deux 2,5 pouces est livré pour ces emplacements. On trouve également un dernier support dédié à deux unités 2,5 pouces à côté de l’alimentation. Les lecteurs optiques profitent de fixations rapides par clips, mais ce n’est pas le cas des cartes filles où le tournevis sera là encore requis. Pour limiter les vibrations, des tampons de caoutchouc sont placés au niveau de l’alimentation, on trouve également des rondelles dans les rails des unités de stockage, mais elles ne sont pas assez épaisses à notre goût. Cooler Master a ensuite pensé à filtrer la poussière puisqu’on trouve une première protection en façade, une seconde sous l’alimentation et des cache-baies 2,5 pouces également équipés. Grâce aux quatre ouvertures du plateau de la carte mère et à une dernière dédiée au câble 4/8 pins en haut, le câblage de la configuration est simple. Des caches auraient été un plus appréciable sur ces passe-cloisons pour camoufler encore plus les fils. Un peu plus d’espace entre la porte et le panier de la carte mère n’aurait aussi pas été un luxe, mais avec les ergots du panier et les serre-câbles livrés, on s’en sort tout de même facilement.

rectes en 12 V mais la dissipation thermique sur le GPU manque d’efficacité. Si elle ne vous est pas utile, la suppression de la cage HDD supérieure permettra d’apporter un flux d’air supplémentaire sur la carte graphique et la carte mère.

Un boîtier, deux designs L’Enforcer n’est ni plus ni moins qu’un HAF 912 dont la robe a été modifiée et qui propose en plus deux ports USB 3.0. Dommage donc qu’on ne trouve pas plus d’évolutions, mais vous avez maintenant le choix entre deux designs si les prestations de cet Enforcer et du HAF 912 vous conviennent. Pour 89 €, le rapport qualité/prix est bon et le boîtier propose l’essentiel, mais on aurait aimé un ventilateur supplémentaire sur le capot, ainsi qu’un peu plus d’espace pour placer un radiateur de watercooling de 240/280 mm à l’intérieur. A ce niveau de prix, la concurrence est rude, et même si cet Enforcer est convaincant, nous lui préférons un 690 Advanced II ou un des modèles de la série Lancool (PC-K60/62/63).

Jérémy Panzetta

• Nom : Enforcer • Constructeur : CM Storm • Type : moyenne tour • Compatibilité carte mère : ATX, microATX • Emplacements 5,25 pouces : 4 (dont un avec adaptateur 3,5 pouces) • Emplacements 3,5/2,5 pouces : 6/4 (dont deux 2,5 pouces dans un adaptateur 3,5 pouces) • Slots d’extension : 8 • Ventilateurs : 200 mm LED rouge à l’avant (ou deux 120 mm optionnels), 120 mm à l’arrière, 200 mm optionnel en haut (ou 2 x 120 mm) • Connectique : 2 x USB 3.0, 2 x USB 2.0, casque et micro • Dimensions : 534 x 485 x 229 mm • Poids : 10,4 kg • Prix : 89 € Deux USB 3.0 en header Organisation des câbles correcte Bonne qualité de fabrication/finition Prix Un HAF 912 avec un look différent Un ventilateur supérieur serait le bienvenu

Les disques durs 3,5 pouces se glissent dans le boîtier via des rails. Deux emplacements sont dédiés à des unités 2,5 pouces, un adaptateur 3,5 pouces permet d’en loger deux autres dans une des six baies 3,5 pouces.

Des performances correctes L’Enforcer est livré avec deux ventilateurs. On trouve un 120 mm à l’arrière et un 200 mm à l’avant, tous les deux équipés en 3 pins et Molex. Deux 120 mm peuvent être ajoutés sur le capot, ou un 200 mm. Vous pourrez aussi y loger un radiateur de watercooling de 240 mm externe. Le 200 mm avant peut ensuite être remplacé par deux 120 mm. Le souffle des ventilateurs est très présent. Il est sourd et n’est pas désagréable, mais s’entend même dans un environnement un peu bruyant. Il sera donc nécessaire de réguler les ventilateurs pour soulager vos oreilles, ce qui fera encore monter les températures. Celles-ci sont cor-

De base, les GPU de 28 cm passent sans problème. Pour des cartes de plus grande longueur, il faudra retirer la baie de stockage principale.

PC Update 135


Les PC de la redac

Nos Configurations de référence Le PC le moins cher possible

• Processeur : AMD Athlon II X2 255 (2 cores, 3.1 GHz, 55 euros) • Refroidissement CPU : radiateur d’origine AMD • Carte mère : Gigabyte 880GM-UD2H (75 euros) • Mémoire vive : 2 Go (2 x 1 Go) DDR3-1333 (25 euros) • HDD : Seagate 7200.12 500 Go 7 200 tours (40 euros) • Carte graphique : Radeon HD4250 intégrée au chipset • Boîtier : entrée de gamme (35 euros) • Alimentation : entrée de gamme 350 W (30 euros) • Divers : N/A

Dépenser plus

• Mémoire vive : 4 Go de RAM (50 euros)

dépenser moins

• Processeur : AMD Sempron X1 145 (35 euros) • Boîtier/Alimentation : 1er prix (35 euros l’ensemble)

Total : 260 euros Bureautique et Internet

• Processeur : AMD Athlon II X2 255 (2 cores, 3.1 GHz, 55 euros) • Refroidissement CPU : Cooler Master Hyper TX3 (15 euros) • Carte mère : Gigabyte 880GM-UD2H (75 euros) • Mémoire vive : 4 Go (2 x 2 Go) DDR3-1333 (50 euros) • SSD : 60 Go contrôleur SandForce (110 euros) • HDD : Seagate 7200.12 500 Go 7 200 tours (40 euros) • Carte graphique : Radeon HD4250 intégrée au chipset • Boîtier : entrée de gamme (35 euros) • Alimentation : entrée de gamme 350 W (30 euros) • Divers : N/A

Dépenser plus

• Processeur : Athlon II X4 645 (90 euros) • HDD : WD Caviar Black 1 To 7 200 tours (80 euros)

dépenser moins

• SSD : pas de SSD (économie de 110 euros)

Total : 410 euros Profiter des derniers jeux, sans se ruiner • Processeur : AMD Phenom II X2 555 Black Edition (2 cores, 3.2 GHz, 85 euros) • Refroidissement CPU : Cooler Master Hyper TX3 (15 euros) • Carte mère : Gigabyte 880GM-UD2H (75 euros) • Mémoire vive : 4 Go (2 x 2 Go) DDR3-1333 (50 euros) • SSD : 60 Go contrôleur SandForce (110 euros) • HDD : WD Caviar Blue 1 To 7 200 tours (60 euros) • Carte graphique : Radeon HD5670 1 Go (90 euros) • Boîtier : entrée de gamme (35 euros) • Alimentation : entrée de gamme 400 W (40 euros) • Divers : N/A

Dépenser plus

• Processeur : plateforme Intel 1156 avec Pentium G6950 (carte mère 20 euros plus chère)

dépenser moins

• SSD : pas de SSD (économie de 110 euros)

Total : 560 euros Bureautique et multimédia tout confort • Processeur : Intel Core i3-2100 (2 cores, 3.1 GHz, 110 euros) • Refroidissement CPU : Scythe Yasya (40 euros) • Carte mère : MSI H67MA-E45 (100 euros) • Mémoire vive : 4 Go (2 x 2 Go) DDR3-1333 (50 euros) • SSD : 60 Go contrôleur SandForce (110 euros) • HDD : WD Caviar Blue 1 To 7 200 tours (60 euros) • Optique : graveur CD/DVD SATA (30 euros) • Carte graphique : intégrée au CPU • Boîtier : milieu de gamme (70 euros) • Alimentation : 450 à 550 W modulaire (80 euros) • Divers : lecteur de cartes mémoire (15 euros)

Total : 665 euros

136 PC Update

Dépenser plus

• SSD : SSD 120 Go contrôleur SandForce (180 euros)

dépenser moins

• Boitier + alim : entrée de gamme (80 euros)


Jouer en 1 920 x 1 080

• Processeur : Intel Core i5-2500K (4 cores, 3.3 GHz, 190 euros) • Refroidissement CPU : Scythe Yasya (40 euros) • Carte mère : MSI P67A-GD65 (155 euros) • Mémoire vive : 4 Go (2 x 2 Go) DDR3-1600 C8 (80 euros) • SSD : 60 Go contrôleur SandForce (110 euros) • HDD : WD Caviar Black 1 To 7 200 tours (80 euros) • Optique : graveur CD/DVD SATA (30 euros) • Carte graphique : Radeon HD 6950 1 Go (210 euros) • Boîtier : milieu de gamme (70 euros) • Alimentation : 550 à 600 W modulaire (90 euros) • Divers : lecteur de cartes mémoire (15 euros)

Dépenser plus

• Processeur : Intel Core i7-2600K (300 euros) • SSD : SSD 120 Go contrôleur SandForce (180 euros)

dépenser moins

• Alimentation : alimentation non modulaire (70 euros)

Total : 1 070 euros Un PC de boulot ultrarapide

• Processeur : Intel Core i7-2600 (4 cores, 3.4 GHz, 260 euros) • Refroidissement processeur : Scythe Yasya (40 euros) • Carte mère : Asrock P67 Extreme4 (145 euros) • Mémoire vive : 8 Go (2 x 4 Go) DDR3-1333 C9 (110 euros) • SSD : 120 Go contrôleur SandForce (180 euros) • HDD : Samsung F4 Ecogreen 2 To 5 400 tours (80 euros) • Optique : graveur CD/DVD SATA (30 euros) • Carte graphique : Radeon HD6450 passive (50 euros) • Boîtier : haut de gamme (120 euros) • Alimentation : Seasonic X-Series Fanless 400 W (145 euros) • Divers : lecteur de cartes mémoire (15 euros)

Dépenser plus

• Boîtier : boîtier très haut de gamme (150 à 500 euros)

dépenser moins

• Mémoire vive : 4 Go (2 x 2 Go) DDR3-1600 C8 (80 euros) • Processeur : Intel Core i5-2500 (200 euros)

Total : 1 175 euros AMD mon amour

• Processeur : AMD Phenom II X6 1100T Black Edition (6 cores, 3,2 GHz, 220 euros) • Refroidissement processeur : Noctua NH-U12 SE2 (60 euros) • Carte mère : Asus Crosshair IV Formula (190 euros) • Mémoire vive : 8 Go (2 x 4 Go) DDR3-1333 C9 (110 euros) • SSD : 120 Go contrôleur SandForce (180 euros) • HDD : Hitachi 7K3000 2 To 7 200 tours (100 euros) • Optique : graveur CD/DVD SATA (30 euros) • Carte graphique : Radeon HD6970 2 Go (330 euros) • Boîtier : haut de gamme (120 euros) • Alimentation : Cooler Master Silent Pro Gold 600 W (120 euros) • Divers : lecteur de cartes mémoire (15 euros)

Dépenser plus

• Carte graphique : Radeon HD6970 (330 euros)

dépenser moins

• Carte mère : carte mère Asrock 880G Extreme3 (105 euros) • SSD : SSD 60 Go (110 euros) • Carte graphique : Radeon HD6950 1 Go (210 euros)

Total : 1 475 euros Jouer en relief avec nVidia 3D Vision

• Processeur : Intel Core i7-2600K (4 cores, 3,4 GHz, 280 euros) • Refroidissement processeur : Noctua NH-U12 SE2 (60 euros) • Carte mère : Asus P8P67 Deluxe (210 euros) • Mémoire vive : 8 Go (2 x 4 Go) DDR3-1600 C8 (130 euros) • SSD : 120 Go contrôleur SandForce (180 euros) • HDD : WD Caviar Black 2 To 7 200 tours (140 euros) • Optique : graveur CD/DVD SATA (30 euros) • Carte graphique : GeForce GTX 580 (460 euros) • Boîtier : haut de gamme (120 euros) • Alimentation : Cooler Master Silent Pro Gold 600 W (120 euros) • Divers : lecteur de cartes mémoire (15 euros), lunettes nVidia 3D Vision (150 euros) Précision : n’oubliez pas d’acheter un écran compatible (120 Hz), comme l’Acer GD245HQ (24’’ à 340 euros).

Dépenser plus

• Refroidissement processeur : Noctua NH-D14 (75 euros)

dépenser moins

• SSD : SSD 60 Go (110 euros) • Carte graphique : GeForce GTX 570 (340 euros)

Total : 1 895 euros PC Update 137


Les PC de la redac

Un PC extrême !

Dépenser plus

• Processeur : Intel Core i7-990X (6 cores, 3,33 GHz, 970 euros) • Refroidissement processeur : EK Supreme-LT (35 euros) • Carte mère : Gigabyte G.1 Guerilla (325 euros) • Mémoire vive : 12 Go (3 x 4 Go) DDR3-1600 C9 (200 euros) • SSD : 250 Go Intel 510 (530 euros) • HDD : Hitachi 7K3000 3 To 7 200 tours (180 euros) • Optique : graveur CD/DVD SATA (30 euros) • Carte graphique : 2 x GeForce GTX 580 SLI (920 euros) • Boîtier : très haut de gamme (200 euros) • Alimentation : Cooler Master Silent Pro Gold 1 000 W (200 euros) • Divers : complément de circuit watercooling (deux blocs 580 + pompe + réservoir + radiateur + tuyaux et embouts, 380 euros), lecteur de cartes mémoire (15 euros)

• Carte graphique : 3e GeForce GTX 580 + watercooling (550 euros)

dépenser moins

• Processeur : Intel Core i7-970 (550 euros) • SSD : SSD Crucial C300 256 Go (420 euros) • Refroidissement processeur : Noctua NH-D14 (75 euros, une économie de 350 euros sans watercooling)

Total : 3 985 euros PC home cinéma

Spécial basse COnsommation

Total : 635 euros

Total : 525 euros

• Processeur : Intel Pentium G6950 (2 cores, 2,93 GHz, 90 euros) • Refroidissement processeur : Scythe Big Shuriken (25 euros) • Carte mère : Gigabyte H55M-USB3 (100 euros) • Mémoire vive : 4 Go (2 x 2 Go) DDR3-1333 (50 euros) • SSD : 40 Go contrôleur SandForce (100 euros) • Optique : lecteur Blu-Ray (75 euros) • Carte graphique : intégrée au CPU • Boîtier : Silverstone Grandia GD-04 (90 euros) • Alimentation : Be Quiet! Straight Power E8 500 W (90 euros) • Divers : lecteur de cartes mémoire (15 euros)

Choisir RAM, carte graphique, disque dur et boîtier. Pour certains composants, nous ne précisons pas de marque et de modèle précis dans nos configurations. Soit parce que le meilleur change d’une semaine sur l’autre en fonction du prix (cas de la RAM, par exemple) soit parce que le choix dépend de vos priorités esthétiques ou phoniques (cas des boîtiers, par exemple). Souhaitant que achetiez les meilleurs matériels uniquement, voici une liste des produits de références pour les catégories concernées : RAM : hors scénario d’overclocking maximal, pour lequel nous vous recommandons de lire notre comparatif de kits DDR3 paru dans HM49, le choix de la mémoire est assez libre. Tant que vous prenez le bon type et la bonne fréquence de mémoire, tel que nous l’indiquons dans les configurations, et une marque reconnue pour éviter les incompatibilités, vous pouvez choisir les moins chères proposées par votre revendeur ou celles qui s’accordent le mieux en look à votre nouvelle carte mère. Depuis quelques mois, la marque G.Skill propose d’excellents rapports qualité/prix, mais n’ayez pas peur d’acheter de la mémoire A-Data, Corsair, Kingston, OCZ, Patriot ou Samsung. Carte graphique : comme pour la RAM, la marque de la carte graphique n’a que peu d’importance. Partant du constat que la majorité des cartes sont identique (ce sont des reference boards avec un sticker modifié), autant prendre la moins chère ou celle accompagnée du jeu qui vous plait. En revanche, il est toujours intéressant

Autour de l’UC

• Processeur : AMD Athlon II X2 240e (2 cores, 2,8 GHz, 60 euros) • Refroidissement processeur : Cooler Master Hyper TX 3 (15 euros) • Carte mère : Gigabyte 880GM-UD2H (75 euros) • Mémoire vive : 4 Go (2 x 2 Go) DDR3 basse conso (60 euros) • SSD : 60 Go contrôleur SandForce (110 euros) • Carte graphique : intégrée au CPU • Boîtier : milieu de gamme (70 euros) • Alimentation : Cooler Master Silent Pro Gold 600 W (120 euros) • Divers : lecteur de cartes mémoire (15 euros)

d’analyser le marcher car les constructeurs proposent également des cartes améliorées (overclockées, meilleur refroidissement, parfois les deux). Globalement, il ne faut pas trop dépenser pour ces modèles boostés, sinon, autant le faire soit même ou investir dans la gamme supérieure. Disque dur : - Disques économiques (16/32 Mo de cache) : Seagate Barracuda LP, WD Caviar Blue - Disques performants (32/64 Mo de cache) : Samsung Spinpoint F3, WD Caviar Black, Hitachi 7K2000 Boitiers: - entrée de gamme (moins de 50 euros) : Cooler Master Elite 430 Black, Antec Two Hundred V2, Xigmatech Asgard - milieu de gamme (51 à 90 euros) : Cooler Master HAF 912, Lancool Dragonlord PC-K58, Xigmatek Midgard - milieu de gamme +++ (91 à 130 euros) : Cooler Master HAF 932, Fractal Design Define R3, Lancool Dragonlord PC-K62 - haut de gamme (131 à 200) : Cooler Master HAF X, Silverstone Fortress FT-01, Fractal Define XL, Corsair 650D, NZXT Phantom, Silverstone Fotress FT-03 - très haut de gamme (+ de 200 euros) : Corsair Obsidian 700D, Lian Li Tyr-X900 - spécial home cinéma : Antec Fusion Remote Max, SilverStone Grandia GD-04 et GD-05, SilverStone Sugo SG-06, Zalman HD501

1920x1080 17

GT440

32

HD5670

20

GTS250

22

39 49

HD5750

31

GTS450

30

53 54

36

HD5770

64 45

GTX460 1Go

84

50

HD6850

90

55

HD5850

96

57

HD6870

100

HD4870 X2

61

GTX295

60

GTX470

58

103 106 110

HD5870

65

HD6950

63

GTX560 Ti

62

112 113 115

HD6970

74

GTX480

74

GTX570

73

123 130 132 84

GTX580

146

90

HD5970 0

50

Ultra High ‐ AA4X

148

100

High ‐ NoAA

150

200

Claviers et souris : le clavier et la souris sont les périphériques que vous allez le plus solliciter, ne négligez pas leur qualité ! Même si vous ne souhaitez pas investir une fortune en la matière, évitez à tout prix les marques inconnues proposées chez quelques revendeurs, ce sont presque toujours de mauvaises surprises, surtout en sans fil. Privilégiez l’increvable, Logitech ou Microsoft, un ensemble clavier et souris d’entrée de gamme ne doit pas excéder 25 euros. Si vous êtes joueur, en quête d’un matériel de précision, voici nos références : Souris : Logitech G500, Roccat Kone+, SteelSeries Xai. Clavier : Logitech G110, Logitech G510, Microsoft X6, Roccat Arvo. Ecrans : étant donné les baisses de prix, qui voudrait s’acheter un écran plus petit que 24’’ de nos jours ? Consultez notre comparatif paru dans Hardware Magazine n°50. 138 PC Update


COME TO

THE DARK SIDE * Vivez l’expérience DARK, avec nos produits high-tech, symboles de performance ultime dans l’univers be quiet! D’un MAX DE PUISSANCE , avec la série DARK POWER , vous disposerez. Puissance atteignant 1200W, rendement exceptionnel de 93%, certification 80PLUS Gold** et ventilateur SilentWings. **sauf 1000 et 1200W, certifiées 80PLUS Silver

D’un MAX DE REFROIDISSEMENT, avec la série DARK ROCK, vous profiterez. Efficacité thermique redoutable, débit d’air optimisé avec design étudié des lamelles, configuration intelligente des caloducs et ventilateur SilentWings. D’un MAX DE SILENCE, grâce à la TECHNOLOGIE SILENTWINGS, vous bénéficierez. Système de montage anti-vibrations, pales au design optimisé, mécanisme FDB avec cœur en cuivre. Intégré dans chaque produit des gammes DARK. Pour en savoir plus sur les produits des séries DARK, rendez-vous sur notre site :

www.be-quiet.fr *Rejoignez-nous du côté DARK

be-quiet.fr

Nos partenaires : www.rueducommerce.fr www.materiel.net www.cybertek.fr www.microconcept.com www.worldofmicro.fr www.microco.fr www.generation-net.com www.pclook.com www.maxordi.net

224059_bq_INTER_fr_210x287mm_05.indd 1

Anzeige Be Quiet Motiv Dark Side RZ-Format: 210 x 287 mm

20.04.11 08:24

Frankreich 20.04.2011



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.