PC Update 35

Page 1

35

100% hardware 100% passion 100% pratique

mai/juin 2008

Pour choisir, upgrader et booster son PC !

n°35

spécial 3D le guide 2008 p.28

Guide

3D, vidéo, conso,

un dossier pharaonique !

p.20 test

plus de

Toutes les GeForce 7/8/9 et les Radeon X1/2/3000

2be000 nchs

au banc d’essai !

Bonus : ATi CrossFireX, nVidia Quad SLI p.48

comparatif

Les dernières nouveautés multiGPU

Plus rapide que le X48, le choix ultime pour un PC top perfs ? p.20 pratique

contrôle distant Dépannez vos amis, utilisez votre PC de partout ! p.76 comparatif

CPL peer 2 peer 200 Mbits Les solutions les plus rapides pour échanger vos fichiers Comment ça marche ? Que dit la loi ?

p.56

nF 790i ULTRA SLI

Guide

PC basse consommation

Choisir ses composants pour assembler un pc ecolo nos astuces pour réduire la conso de votre machine

test : quoi de neuf en boitiers ?

Tous les kits CPL à l’épreuve du haut débit : enfin de la performance ! p.68 comparatif

10 GPS

Radars, traffic, mains libres, musique, y a t il une vie en dehors de TomTom ? L 18982 - 34 - F: 5,90  - RD

bel / lux : 6,5 € CH 11,5 FS - CAN 9 $ - DOM/TOM 6,10 € GR/ PORT CONT : 6,40 € - MAR : 65 DH


Édito Courrier des lecteurs : MPM Editions. 40 rue Emile Zola, 93100 Montreuil Email : lecteurs@techage.fr Abonnements : Axiome Abonnement Presse PCUpdate L’Engarvin 06390 COARAZE Pour tout renseignement sur les abos : 06 26 64 23 29 abo@axiomegroup.biz Ont participé à ce numéro : MPM Editions (Rédacteur en chef : Jérémy Panzetta ; rédacteur : Pierre Caillault ; pigistes : Manuel Da Costa, David Guillaume, Laurent Diilain) ; Tridam Conception graphique : David Benamou Maquettiste : Cyril Albo

35

100% HARDWARE 100% PASSION 100% PRATIQUE

mai/juin 2008

POUR CHOISIR, UPGRADER ET BOOSTER SON PC !

GUIDE

3D, VIDÉO, CONSO,

UN DOSSIER PHARAONIQUE !

PCUpdate est édité par Tech.Age SA au capital de 78300 €, 23 rue Michel Rodange, L-2430 Luxembourg Administrateur délégué et directeur de la publication : Christian Marbaix Rédacteur en chef délégué : Thomas Olivaux Publicité : Stéphanie Chauvin stephanie@techage.fr

L’envoi de tout texte, photo ou vidéo implique l’acceptation par l’auteur de leur libre publication dans le journal. Les documents ne sont pas retournés. La loi du 11 mars 1957 n’autorisant aux termes des alinéas 2 et 3 de l’article 41 d’une part que « des copies ou reproductions strictement réservées à l’usage du copiste et non destinées à une utilisation collective» et d’autre part que les analyses et courtes citations dans un but d’exemple et d’illustration, « toute représentation ou reproduction, intégrale ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » (alinea premier de l’article 40). Cette représentation ou reproduction, par quelques procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants de l’ancien code pénal. Textes, photos : copyright 2002/2008 Tech.Age SAS Impimeur : N.I.I.A.G Printed in Italy, imprimé en Italie N° de commission paritaire : 0108K82571 Dépôt légal : deuxième trimestre 2008 Distribution : MLP

Imprimé sur papier 100% recyclé

P.20 TEST

PLUS DE

TOUTES LES GEFORCE 7/8/9 ET LES RADEON X1/2/3000

20 00 BENCHS

AU BANC D’ESSAI !

Bonus : ATi CrossFireX, nVidia Quad SLI P.48

COMPARATIF

Les dernières nouveautés multiGPU

NF 790I ULTRA SLI Plus rapide que le X48, le choix ultime pour un PC top perfs ? P.20 PRATIQUE

CONTRÔLE DISTANT Dépannez vos amis, utilisez votre PC de partout ! P.76 COMPARATIF

PEER 2 PEER CPL 200 MBITS LES SOLUTIONS LES PLUS RAPIDES POUR ÉCHANGER VOS FICHIERS COMMENT ÇA MARCHE ? QUE DIT LA LOI ?

P.56

Cessons d’acheter des prix

N°35

SPÉCIAL 3D LE GUIDE 2008 P.28

GUIDE

PC BASSE CONSOMMATION

CHOISIR SES COMPOSANTS POUR ASSEMBLER UN PC ECOLO NOS ASTUCES POUR RÉDUIRE LA CONSO DE VOTRE MACHINE

TEST : QUOI DE NEUF EN BOITIERS ?

Tous les kits CPL à l’épreuve du haut débit : enfin de la performance !

Nous avons reçu un jour à la rédaction le mail d’un lecteur nous remerciant pour nos magazines car «il n’avait pas les moyens d’acheter bon marché». Quel beau slogan pour un magazine qui guide sur l’achat et l’usage des PC... Une idée encore plus aigüe en cette période de tension économique.

P.68 COMPARATIF

10 GPS

Radars, traffic, mains libres, musique, y a t il une vie en dehors de TomTom ? L 18982 - 34 - F: 5,90 ! - RD

bel / lux : 6,5 € CH 11,5 FS - CAN 9 $ - DOM/TOM 6,10 € GR/ PORT CONT : 6,40 € - MAR : 65 DH

A l’heure où la croissance des pays émergeant provoquent d’inévitables et formidables tensions sur les prix des matières premières et par ricochet sur les biens manufacturés (et çà n’est pas un phénomène nouveau, seule la faiblesse du dollar nous avait permis de nous voiler la face), il est plus que jamais nécessaire de choisir juste. Préserver son pouvoir d’achat, çà n’est pas forcément acheter le produit le moins cher, c’est acheter le produit qui correspond à vos besoins et qui va donc durer ! Consommer moins, et consommer mieux, une idée simple que cette époque du tout jetable nous a presque fait oublier. La juste revendication des pays du sud à partager la richesse, donc la consommation, donc la matière première nous rappelle que cette planète dispose de ressources limitées. Acheter juste, c’est donc aussi acheter écologique ! Entre une paire de chaussure à 1 euros qui aura peine à tenir l’année, et une paire un peu plus chère mais solide, il y a non seulement écologie mais aussi économie ! Il en va de même pour nos PC. Regarder «ce qui est le moins cher» n’est pas forcément la meilleure logique, y compris pour le porte monnaie... A contrario, il faut aussi admettre que le mieux est parfois l’ennemi du bien. Quantité de mémoire superflue sur les cartes graphiques, couples processeurs/ cartes graphiques dépareillés, les exemples ne manquent pas non plus ! Tout amateur de records d’overclocking et d’uberperfs que nous sommes, il faut aussi savoir souligner les abus du marketing ! Pourquoi rappeler cela ? Parce que PC Update et Hardware Magazine défendent ce concept depuis leur création, ils en ont même fait leur philosophie ! Précurseurs les ptits geeks ? Parfois peut-être !

CM


Sommaire

News • • •

Le meilleur du hardware Le meilleur du jeu Cas pratiques

6 14 18

Dossiers •

790i (Ultra) SLI : un bon cru

Peer 2 Peer : le point en 2008

120

Sommaire Mai/Juin

Spécial cartes 3D : 40 GPU sur 3 générations face à face ! 44

108

Economisez de l’énergie en assemblant votre PC basse consommation 62

Tous les PC ne servent pas à exploser des scores d’overclocking ou à dépasser les 50 FPS dans Far Cry. Pour ceuxlà, difficile de faire dans l’économie d’énergie, mais pour les autres, il y a vraiment moyen de consommer moins, tant par ses choix matériels que sa configuration logicielle.

Contrôler un PC à distance 82

Boostez votre distribution Linux

88

Si la compilation d’un noyau Linux a tout d’un passe-temps de geek, il constitue aussi une étape indispensable pour améliorer son système. Alors pourquoi ne pas optimiser votre distribution Linux en compilant votre noyau ? •

Les serveurs proxy : comment ça marche ?

92

HTTP SSL, SOCKS4, SOCKS5, reverse-proxy… ces nombreux termes reviennent dans la quasi-totalité des applications Internet afin d’exploiter des serveurs proxy. Comment fonctionne ce type de serveurs et surtout quelles peuvent être leurs utilités ?

Pratique •

74

Pratique pour dépanner et piloter un PC en LAN ou par Internet, la prise de contrôle à distance est un procédé simple à mettre en oeuvre. Il suffit d’avoir les bons outils et quelques connaissances que nous détaillons dans ce guide.

30

Changer de carte graphique, ça vous dit ? Que faut-il acheter ? Que vaut votre carte actuelle face aux modèles les plus récents ? Le gain dans les jeux sera-t-il sensible ? Pour y répondre, nous avons comparé toutes les cartes 3D des trois dernières générations.

Quad GPU : une solution réaliste AMD et nVidia permettent maintenant d’exploiter la puissance de quatre de leurs GPU simultanément de manière à augmenter les performances graphiques. Que valent ces solutions ? L’occasion également de nous repencher sur les variantes triGPU.

Depuis près de 10 ans, le Peer 2 Peer n’a cessé d’évoluer pour aller toujours plus vite, toujours au plus efficace et au plus convivial. Petit tour d’horizon des modes de fonctionnement des réseaux P2P. •

24

Après un nForce 780i SLI peu convaincant, nVidia nous propose aujourd’hui les 790i SLI et 790i Ultra SLI, premiers chipsets DDR3 de la marque. Alors, cette foisci, évolution ou révolution ?

24

Les logiciels du mois

98

De l’application incontournable et pratique, à celle loufoque et inutile, notre sélection mensuelle d’utilitaires ne manquera pas de vous étonner.

Geek •

Geek, ça pique un peu les yeux 100

Entre la redécouverte envoûtante de la profession

Offres d’abonnements p49-50-113-114


spécial 3D le guide 2008

de secrétaire, l’histoire de l’orc shaman Rehgar Rageterre, les technologies de demain et les livres répondant à notre soif de savoir, vous aurez de quoi bouleverser vos neurones avec notre nouvelle sélection geek.

Comprendre •

IPv6 : pour tous ?

3D, vidéo, conso,

un dossier pharaonique !

Toutes les GeForce 7/8/9 et les Radeon X1/2/3000

104

IPv6, le successeur de notre protocole IP utilisé dans la majorité des réseaux, est sans aucun doute l’un des buzzs du moment. Quels sont les avantages de cette nouvelle mouture ? Pourquoi n’est-il pas plus répandu ? Et surtout, comment le mettre en place avec n’importe quel fournisseur d’accès Internet ? Suivez le guide !

GPS, quoi de neuf à part TomTom ? 108

Pratique, rapide, efficace, « intelligent », le GPS d’aujourd’hui remplit de plus en plus de fonctions et ne cesse d’évoluer. L’offre est importante, beaucoup de marques se chevauchent et se disputent un marché très concurrentiel. TomTom est il encore la référence incontestée ?

Sept kits CPL 200 Mbps 120 Décevant lors de nos premiers tests, le CPL 200 Mbps a-t-il progressé depuis sa sortie ? Nous avons réuni sept kits Ethernet afin de faire le point sur cette technologie très pratique pour créer des réseaux en s’affranchissant des câbles.

Comparatifs •

44

au banc d’essai !

Voici quatre solutions alternatives pour vous débarrasser du radiateur d’origine.. •

Envie d’une nouvelle enveloppe pour votre PC ? Optez pour l’une des trois nouveautés du mois ! L’un ventile à fond, l’autre offre une grande capacité, tandis que le troisième marie élégance et taille modérée. Voici les derniers boîtiers A+ Case et Gigabyte.

Tests •

Quatre ventirads pour Geforce 8800 126

Quel ventirad installer sur votre GeForce 8800 ? Tout dépend de ce que vous cherchez… silence, performances, les deux ?

PC basse consommation

Les meilleurs composants pour assembler un pc ecolo nos astuces pour réduire la conso de votre machine

GeForce 8800M GTX : la carte graphique mobile ultime 134 Une vraie carte graphique dans un portable... jusqu’à présent ça n’avait jamais été qu’un rêve. En passe de devenir réalité avec la récente mise sur le marché des premiers portables intégrant une 8800M GTX.

peer 2 peer

Les meilleurs solutions pour échanger vos fichiers Comment ça marche ? Que dit la loi ?

3 boîtiers, 3 prix, 3 choix 130

Origen AE S21T : un PC home cinéma de rêve 136 Certains fantasment sur des plates-formes ultrapuissantes comme Skulltraill, d’autres préfèrent rêver du PC home cinéma parfait. A travers le test du magnifique boîtier S21T Origen AE, voici une configuration de salon qui va vous mettre l’eau à la bouche.


News

news 1 Go de mémoire ? Bus 512 bits ? 192 unités de calcul ? Les G80/G92 amélioré des GeForce 9900 risque de faire mal !

Un été animé en 3D ? Les derniers bruits de couloir nous laissent penser qu’AMD et nVidia nous préparent tous les deux quelques nouveautés dont la sortie ne saurait tarder. AMD aurait ainsi dans ses cartons un GPU répondant au nom de code RV770 qui serait une évolution de l’actuel RV670 qui équipe les Radeon HD 3800. Il disposerait de plus d’unités de calcul et d’un support corrigé de l’antialiasing, de manière à revenir à niveau en termes de performances puisqu’il s’agissait là d’un gros défaut des Radeon HD 2000 et 3000. AMD sortirait directement une carte équipée de deux de ces GPU, similaire à la Radeon HD 3870 X de manière à disposer d’un haut de gamme. AMD devrait ainsi revenir au niveau des GeForce 9800 GTX et de la GeForce 9800 GX2.

Les versions mobiles des GeForce 9 témoignent, une nouvelle fois, de la liberté dont ne se prive pas le service marketing pour dénommer d’une manière abusive les produits mobiles par rapport aux versions classiques. Voici les modèles annoncés, suivis du GPU utilisé et des versions de bureau basées sur le même GPU :

News

GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce GeForce

9800M 9800M 9800M 9700M 9700M 9700M 9650M 9600M 9600M 9500M 9500M 9400M 9300M 9300M 9200M

GTX : G92 : GeForce 8800 GT, 8800 GTS 512, 9800 GTX GTS : G94 : GeForce 9600 GT GS : G94 : GeForce 9600 GT GTS : G94 : GeForce 9600 GT GT : G96 : GeForce 9500 GT GS : G96 : GeForce 9500 GT GT : G96 : GeForce 9500 GT GT : G96 : GeForce 9500 GT GS : G96 : GeForce 9500 GT GS : G84 : GeForce 8600 GTS, 8600 GT G : G96 : GeForce 9500 GT GS : G98 : ? GS : G98 : ? G : G86 : GeForce 8400 GS GS : G98 : ?

Bien que les spécifications détaillées ne soient pas encore connues, il est évident au vu de la liste et des correspondances que nVidia tente de rendre sa gamme incompréhensible de manière à y faire passer tout et n’importe quoi. Ainsi, une GeForce 9800M GTS sera au mieux l’équivalent d’une GeForce 9600 GT ! Bien entendu, une GeForce 9600M sera, pour sa part, castrée dans tous les sens par rapport à une GeForce 9600 GT. Pour nVidia, la raison de cette pagaille est qu’il n’est pas possible d’utiliser les mêmes spécifications dans les portables étant donné qu’il faut y limiter la consommation… Et bien entendu, ça oblige à appeler une GeForce 9600 GT mobile : GeForce 9800M GTS. Carton rouge.

Enfin, nVidia devrait, cet été, mettre à jour ses GPU actuels (le G92 des GeForce 8800 GT/GTS 512 et 9800 GTX/GX2 et le G94 des GeForce 9600) en les fabriquant en 55 nm au lieu de 65 nm. De quoi pouvoir réduire les prix de ces produits.

Avril/mai 08 n° 34 5,90 €

avril/mai 08

N°34

GUIDE D’ACHAT $)*14&54 #64 '0/$5*0/4 "7"/$­&4 5064 -&4 10*/54 © $0/53·-&3 /053& 4­-&$5*0/ %&4 .&*--&63&4 $"35&4 1063 ".% &5 */5&-

P.18

CARTES MERES LES CLÉS DU CHOIX P.28

COMPARATIF

26 écrans

22 & 24”

2VFM ÊDSBO EF Æ FVSPT 6O CPO PV VO QSFNJFS QSJY

3D

P.90

-&4 .0%°-&4 1)"3&4 %& -" .&*--&63& $"35& %6 .0.&/5

GF 9800 GTX - 6-53" 16*44"/$& &/'*/ "#03%"#-&

GF 9800 GX2 3&$03%4 #"5564 P.70

PRATIQUE

VISTA 32 OU 64 ?

-& #*54 %&7*&/5 *- &/'*/ */5­3&44"/5

P.106 GUIDE

GUIDE

LA VIDEO HD FLUIDE AVEC UN PC À 400 €

.1 57 (14 5­-­1)0/& */45"--&; 6/ 1$ %"/4 7053& 70*563&

I PC Update

TESTS CARTES

GF 9600 GT

r ".% ( (&'03$& &/ 5&45 r 26&--& $0/'*( 1063 -" )% &5 -& #-63": P.44

6

Le Vélocira dur 2,5 tou ad

4 GO DE RAM ?

-" .­.0*3& /& 7"65 1-64 3*&/ '"65 *- $3"26&3 -&4 .&*--&634 ,*54 %%3 &5 %%3 (0 © - &44"* L 19293 - 34 - F: 5,90 ! - RD

BEL / LUX : 6,5 € CH 11,5 FS - CAN 9 $ DOM/TOM 6,10 € GR/PORT CONT : 6,40 € - MAR : 65 DH

En kiosques ce mois-ci

La pagaille dans les GeForce 9M

nVidia ne compte bien entendu pas en rester là et devrait nous dévoiler une GeForce 9900, voire même peut-être une GeForce 9900 « GX2 ». Ces cartes exploiteraient enfin un nouveau gros GPU dont nous ne connaissons pas encore les spécifications. Nous pouvons cependant estimer qu’il disposera de plus de bande passante mémoire, soit via un bus plus large, soit via l’utilisation de mémoire GDDR5, et de plus d’unités de calcul. Il devrait également apporter quelques petites améliorations, notamment le support des calculs flottants en 64 bits qui sera destiné à CUDA, l’interface qui permet d’utiliser un GPU nVidia comme unité de calcul généraliste, pour accélérer, par exemple, de l’encodage vidéo ou encore traiter la physique, si cela se concrétise enfin un jour.

magazine

GeForce Mobile, ou comment recycler tout type de GPU avec de nouveau noms.


EeePC, Asus remet le couvert

3DMark Vantage, c’est pour bientôt L’EeePC 900 d’Asus risque de révolutionner l’usage de l’EeePC grâce à son écran de 8,9” en 1 024 x 600.

Fort du succès de l’EeePC 400 vendu 299 euros depuis le début de l’année, Asus va commercialiser dès la fin du mois l’EeePC 900 qui sera décliné en deux versions, toutes deux pour 399 euros. Le constructeur semble avoir entendu nos critiques (celles du monde entier, à vrai dire), puisque les EeePC 900 abandonnent le tout petit écran 7» 800 x 480 pour un écran 8,9» 1 024 x 600. Voilà qui devrait enfin permettre de surfer sans passer son temps à faire défiler ! Autres évolutions, la mémoire grimpe de 512 Mo à 1 Go (indispensable pour faire tourner Windows correctement) et surtout, la capacité de stockage passe de 4 à 12 ou 20 Go suivant le modèle, les deux déclinaisons auxquelles nous faisions allusion. Pour 399 euros, vous pourrez choisir entre un EeePC 900 12 Go avec un Windows allégé ou un EeePC 900 20 Go avec Linux. Hmmm, voilà qui semble intéressant ! Parallèlement à Asus, de nombreux constructeurs planchent sur leurs versions d’ultraportables d’entrée de gamme, les Netbooks comme Microsoft aime à les appeler. Nous ne manquerons pas de nous y intéresser dès qu’ils seront en vente dans nos contrées.

Le nouveau Raptor, le Vélociraptor, est un disque dur 2,5” SATA 2 10 000 tours livré avec un adaptateur 3,5”.

Souvent décrié par des journalistes exigeants, généralement à raison mais parfois à tort, 3DMark est depuis bientôt 10 ans la référence des benchmarks pour joueurs. Chaque nouvelle version, à raison d’une par an ou d’une tous les deux ans, est une petite révolution, attendue par la profession mais également un tas de passionnés comme vous, avides de connaître les aptitudes de leur PC. Si Futuremark se doit de mettre régulièrement à jour son outil de mesure, comme nous changeons régulièrement de jeux pour nos essais, c’est pour évaluer correctement les dernières technologies. En l’occurrence, 3DMark Vantage sera le premier benchmark 3D conçu pour DirectX 10 et donc, Windows Vista. Cette mouture sera donc réservée aux PC sous Vista équipés d’une Radeon X2000/ X3000 ou une GeForce 8/9. Allez, comme d’hab, même avec nos GeForce 8800, on finira par pleurer en sortant dans les 3 000 points… et comme toujours un an après, nous exploserons les 10 000 points avec des cartes de folie :)

Velociraptor, enfin un Raptor pour portables ! Durant sa dernière conférence de presse, Western Digital a présenté le successeur du Raptor 150, le disque dur extrême performances du constructeur, toujours sans concurrence. Pour rappel, la série Raptor (36, 74 puis 150 Go) sont des disques durs SATA qui tournent à 10 000 tours par minute et offrent des performances dignes des disques durs pour serveur. Le Velociraptor, c’est son nom, est très différent des précédents, pour la simple et bonne raison qu’il s’agit d’un disque dur 2,5» ! Surement compatible avec les ordinateurs portables, Western ne nous ayant pas encore confirmé cette information, il s’agira et de loin du disque dur le plus rapide ayant jamais existé pour nos notebooks. Malgré sa petite dimension, les performances annoncées sont sensiblement supérieurs à celles délivrées par le Raptor 150 3,5», ceci étant sans doute expliqué par la densité nettement améliorée. Avec seulement deux plateaux (quatre têtes), le Velociraptor offre une capacité de stockage de 300 Go et est équipé de 16 Mo de mémoire cache. Que les nombreux adeptes du PC assemblés se rassurent, Western Digital va vendre son Vélociraptor avec un adaptateur (visible sur la photo) permettant de l’installer en 3,5» dans n’importe quelle machine. Ce petit bijou sera commercialisé à 300 dollars, espérons que la conversion euro/dollar le place à 170 euros et non, comme nous pouvons le craindre, autour de 300.

PC Update

I7


News

L’IDF a pris place au pied de l’immense Pearl Tower.

Intel Developer Forum à Shanghai Deux fois par an, Intel organise un énorme événement qui s’étale sur plusieurs jours et pendant lequel le fabricant présente ses nouveautés, ses nouvelles orientations technologiques et parfois quelques projets délirants.

P

our la deuxième fois consécutive, c’est en Chine qu’a pris place l’un des deux plus gros événements Intel de l’année : l’Intel Developer Forum « printemps », ou IDF. Le choix de la Chine est justifié pour plusieurs raisons, la principale étant que le marché asiatique, et surtout

chinois, est en pleine explosion. La seconde est que l’événement sert à mettre en relation différents pans de l’industrie et que de nombreux fabricants se trouvent en Chine. L’IDF n’est en effet pas destiné uniquement aux journalistes, mais à l’industrie liée au business d’Intel dans son ensemble.

L’Atom n’est composé que de 47 millions de transistors qui n’occupent que 25 mm² !

19,05 mm

Cette année, Intel a cependant décidé d’abandonner Pékin au profit de Shanghai, résolument moins « administrative » et plus moderne dans son esprit. Une ville fascinante qui bouge très vite, en chantier perpétuel avec d’immenses gratte-ciel qui y poussent comme des champignons. Gardes, membres du parti et propagande chinoise en plein milieu des présentations étaient donc plus discrets cette année, ce qui a entouré cet IDF d’une atmosphère plus relax. Peut-être un petit peu trop calme d’ailleurs, le géant du microprocesseur ayant été quelque peu avare en détails sur ses futurs produits, se limitant à rappeler ce qui avait déjà été dévoilé sur ses futures puces : Atom, Nehalem et Larrabee.

L’Atom pour les clients bon marché

Lancé lors de cet IDF, même s’il avait été dévoilé officiellement quelque temps avant, l’Atom entame un tournant stratégique crucial pour Intel. Ce nouveau processeur a été conçu dans une optique bien définie : être bon marché, économe, adapté à Internet et rentable. L’arrivée de l’EeePC a chamboulé les esprits.


Les Nettops ou clients Internet bon marché mais limités.

Et le futur ?

Au départ, le succès chez nous d’une machine bon marché telle que l’EeePC est une très mauvaise nouvelle pour Intel. En effet, il y a moins d’argent à faire dans un ordinateur à 300 euros que dans un modèle à 1 000 euros. Certes, Intel peut y placer ses processeurs et chipsets bas de gamme classiques et le fait d’ailleurs actuellement mais ceux-ci sont peu rentables et en laissant de telles solutions se multiplier, Intel courrait le risque de voir ses solutions haut de gamme perdre de l’intérêt. Le fabricant a senti arriver cette catégorie de produits longtemps avant qu’ils ne débarquent et a décidé de ne pas les freiner et, au contraire, de les encourager, mais avec une stratégie et des produits bien adaptés. La stratégie est de séparer clairement les PC « pas chers » du reste de la gamme, d’une part en créant un nouveau type de produits, les Nettops en version de bureau et les Netbooks en version portable et d’autre part, en en limitant les capacités. Nettops et Netbooks sont ainsi destinés à surfer sur le Net, à regarder des vidéos simples, à jouer à quelques jeux basiques, à faire de la bureautique, à apprendre etc. Pour un usage plus avancé, que ce soit pour les jeux, pour profiter de

Intel a donné quelques détails sur ses futures architectures de 2010 et de 2012 ou plutôt sur leur jeu d’instructions. Ainsi, Sandy Bridge dès 2010 verra le SSE être supplanté par l’AVX, Advanced Vector eXtension, qui est un jeu d’instructions qui travaille sur des registres 256 bits au lieu de 128 bits, de manière à doubler la puissance de calcul avec des unités de traitement adaptées. Intel précise que ce sera le cas dès la première apparition d’AVX. De nouvelles instructions plus flexibles arriveront avec l’AVX, de quoi apporter un gain significatif, d’autant plus que ces unités de Sandy Bridge pourraient bien avoir à traiter toute la partie « calcul » du core graphique intégré. En 2012, le jeu d’instructions évoluera de nouveau significativement avec l’arrivée d’unités de calcul de type FMA (Fused Multiply Add) qui peuvent réaliser une multiplication et une addition en même temps. Des unités qui sont depuis longtemps au coeur des… GPU ! Convergence ? Certainement. Le Classmate PC destiné à l’éducation dans les pays en voie de développement devrait recevoir l’Atom pour la rentrée.

films haute définition, faire de la retouche photo et vidéo, il faudra se tourner vers une machine classique qui conserve ainsi tout son intérêt. Pour que ces Nettops et Netbooks soient rentables et « restent à leur place », Intel avait besoin d’un nouveau processeur, l’Atom. Mais celui-ci offre également l’intérêt d’être peu gourmand et donc bien adapté à la mobilité et aux appareils compacts : les MID (Mobile Internet Device). A terme, ces évolutions devraient également se retrouver dans les smartphones. L’Atom ouvre donc un large marché à Intel qui en a profité pour créer une marque Centrino Atom qui reprend un ensemble de composants maison adaptés aux plates-formes liées à Atom. L’Atom repose sur Silverthorne, un core très simple mais qui supporte l’HyperThreading et 512 ko de cache L2. Il est et sera décliné en différentes versions, single et dual core. Actuellement, il est disponible en version ultramobile single core de 800 MHz à 1,86 MHz avec une consommation maximale qui varie entre 0,65 W et 2,4 W selon les modèles. En version desktop, ou plutôt Nettop, il sera un peu plus gourmand avec jusqu’à 7,5 W pour la version single core et 12 W en dual core, au lancement.

processeurs seront toujours fabriqués en 45 nm puisque la stratégie du fondeur est de fabriquer une légère évolution d’un CPU donné lors du passage à un nouveau procédé de fabrication et d’introduire les nouvelles architectures sur un procédé bien maîtrisé. Une manière de minimiser les risques, tout en gardant un rythme de croisière soutenu. Les cores présents au sein de Nehalem seront similaires aux cores des CPU actuels du fabricant, bien qu’ils apporteront quelques petites améliorations telles que le retour de l’HyperThreading, une prédiction de branchement encore légèrement améliorée et une poignée de nouvelles instructions SSE4, avec le passage à la version 4.2 (4.1 pour Penryn). Mais pourquoi donc parler de nouvelle architecture ? Parce que si les cores n’ont pas subi de changements majeurs, ce qu’Intel nomme « l’uncore » a, quant à lui, fait l’ob-

La stratégie tick tock d’Intel. Chaque tick inaugure un nouveau procédé de fabrication, chaque tock une nouvelle architecture.

Nehalem pour mettre tout le monde d’accord ? Intel nous a laissé toucher le premier CPU Nehalem mais pas le tester.

C’est à la fin de cette année que devrait voir le jour la nouvelle architecture de processeurs Intel : Nehalem. Ces futurs

PC Update

I9


News Au revoir l’objectif, bonjour le processeur ? Nous avons pu voir une démonstration impressionnante à Shanghai, effectuée par un partenaire d’Intel, Refocus Imaging. Cette start-up a pour projet de révolutionner le monde de la photo, en rendant obsolètes les collections d’objectifs de tout bon photographe. Refocus Imaging travaille sur une technologie destinée à remplacer les objectifs, ou tout du moins une partie de leur travail, par un logiciel. Le principe est d’enregistrer via un capteur, non pas des pixels d’une image, mais bien le champ lumineux complet et donc toutes les informations concernant les rayons lumineux qui atteignent le capteur. Un logiciel se charge alors, sur la base de ces informations, de recomposer l’image. Cela permet, par exemple, des zooms numériques de meilleure qualité ou mieux encore, de faire le focus après avoir pris la photo ! Reste à voir si cette technologie tiendra ses promesses et aboutira à quelque chose de concret. En attendant, pour Intel, la promesse est de voir des appareils photo équipés d’un objectif simplifié mais embarquant une puce performante !

jet d’une refonte totale et ressemble à s’y méprendre à ce qu’a fait AMD avec l’Athlon 64 et puis avec le Phenom ! Ainsi, Intel a intégré les contrôleurs mémoire dans Nehalem, abandonné le FSB au profit d’un bus plus moderne, QPI (QuickPath Interconnect) et revu sa structure de cache. Chaque core disposera maintenant d’un petit cache L2 dédié de 256 ko et tous se partageront un gros cache L3. Qui a dit Nehalem = Phenom Core 2 inside ?

News

Nehalem marque également l’arrivée de beaucoup plus de modularité que par le passé dans son architecture. Nombre de cores, de contrôleurs mémoire, de liens QPI, cache L3 et même contrôleurs PCIExpress et core graphique sont ainsi des blocs qu’Intel peut manipuler à souhait (ou presque) pour créer le processeur le mieux adapté à un marché donné. Le premier Nehalem, Bloomfield de son petit nom, qui verra le jour à la fin de l’année, sera équipé de quatre cores, d’un cache L3 de 8 Mo et de trois contrôleurs mémoire DDR3-1333. Ce CPU était présent partout à l’IDF mais il n’a malheureusement pas encore été possible de le tester, mais nous savons qu’il tournait déjà à 3,2 GHz.

et d’efficacité. Ce n’est pas nouveau : pour Intel, l’avenir est au ray-tracing, renommé pour l’occasion en un abstrait Photorealistic 3D, un terme qui ne veut rien dire, mais plus accrocheur. Selon nous, si l’avenir est probablement à ce type de rendus, ce ne sera pas le cas avant longtemps, 5 ans ? 10 ans ? Intel fait le forcing à ce sujet pour entamer son combat contre les GPU ou plutôt contre nVidia qui devient un adversaire aux ambitions gênantes pour Intel. L’argument d’Intel est, pour simplifier : « Nos CPU sont adaptés au ray-tracing, les GPU ne le sont pas, nous sommes l’avenir de la 3D, ils sont le passé. »

Une vision des choses bien trop simpliste, bien entendu. Les CPU actuels sont effectivement adaptés au ray-tracing, mais pas encore assez puissants pour du temps réel complexe. Les CPU vont cependant le devenir à terme. Si les GPU ne sont pas encore adaptés au ray-tracing, ils sont, par contre, déjà plus performants et voient leur flexibilité s’accroître à chaque génération, donc rien ne dit qu’eux aussi ne pourront pas traiter du ray-tracing en temps réel quand les CPU Intel auront acquis assez de puissance pour le faire. Pour contrer nVidia et AMD dans une moindre mesure, le fabricant n’étant plus vu comme « dangereux » dans l’immédiat, Intel compte d’une part sur Larrabee, un processeur massivement multicore destiné à accélérer tout type de traitements facilement parallélisables et donc prévu en version graphique. 2009 sonnera donc le débarquement de cartes graphiques à base de processeurs Intel ! Nous vous avons déjà parlé de ce futur processeur et Intel n’a rien dévoilé de nouveau lors de cet IDF, se contentant de montrer son agressivité face aux GPU. Intel va arriver et compte le faire en force, mais avec succès ? D’autre part, Intel compte sur ses cores graphiques intégrés et une fulgurante progression de ceux-ci pour équiper décemment un maximum de machines. Intel affirme d’ailleurs que ses cores sont « à niveau » avec la concurrence, ce qui a fait bondir nVidia et AMD dont une partie de la stratégie est de casser les cores graphiques intégrés Intel. Reste qu’à l’exception de la vidéo, et ce ne sera plus le cas avec le G45, un mGPU nVidia ne vaut pas beaucoup mieux qu’un IGP Intel. Du côté d’AMD, le dernier venu est quelque peu plus véloce, mais cela reste du très bas de gamme. Le seul réel avantage d’AMD et de nVidia concerne les pilotes, or Intel semble avoir pris conscience de cela et même s’il faut du temps pour revenir à niveau, à terme, ce ne sera plus un C

M

Y

CM

MY

CY

CMY

K

Le GPU est mort !

Intel n’y est pas allé par quatre chemins en déclarant que le GPU était mort, n’avait plus aucun avenir car reposant sur un mode de rendu trop limité en termes d’évolutions

10

I PC Update

P

Un niveau « simple » de Quake 4 rendu en ray-tracing, une vieille démo d’Intel qui n’impressionne plus.


problème et un GPU lent nVidia ou Intel ne fera plus de grandes différences. Par contre, Intel va intégrer son core graphique dans Nehalem courant 2009 et le fusionner complètement à l’architecture de Sandy Bridge en

PC_update_04_08.pdf 16.04.2008 17:28:51 Les plans d’Intel pour le graphisme intégré.

2010. Les chipsets intégrés nVidia n’auront donc plus aucun intérêt selon nous, ce qui fait peur au fabricant puisqu’il s’agit là d’un énorme marché. nVidia va donc devoir s’efforcer de tirer ce marché vers le haut pour faire prendre conscience qu’un vrai

Intel Research Outre les produits classiques, l’IDF est également l’occasion pour Intel de faire sortir ses chercheurs de l’ombre, histoire de rappeler ses énormes investissements en R & D. Il ne s’agit pas de créer de nouveaux Une main artificielle présentée par Intel et processeurs, mais capable de sentir la proximité des objets pour pouvoir éviter de les toucher ou de les également de leur endommager. trouver ou de leur créer des utilités. L’intelligence artificielle en est un très bon exemple. Sans entrer dans la science-fiction, il est évident que c’est un secteur d’avenir.

GPU, c’est tout de même mieux que de l’intégré, ce qui ne sera pas facile après avoir joué le jeu de l’ultrabas de gamme pendant plusieurs années pour essayer à tout prix d’augmenter ses parts de marché.

C

M

Y

CM

MY

CY

CMY

K

PC Update

I 11


News

news jeux Ils sont sortis Silverfall : Earth Awakening

(assaut, assaut lourd, combat rapproché, antivéhicule, sniper, etc.) auquel vient s’ajouter un second rôle représenté par des attaques de type soutien terrestre, drones ou impulsion électromagnétique, ainsi qu’un large panel d’armes et de véhicules aériens et terrestres. Les missions proposent des objectifs basés principalement sur de la conquête de territoires au sein de cartes relativement vastes regorgeant de chemins et détours alternatifs. De quoi s’adapter au mode multijoueur qui est certainement l’un des aspects les plus intéressants de ce titre, car il manque tout de même de rythme, de finitions et de variétés. Frontlines est loin d’être mauvais mais ne se hisse pas au niveau de la concurrence.

Assassin’s Creed Director’s Cut Edition (Ubisoft)

Silverfall : Earth Awakening (Focus Home Interactive)

News

Sorti en 2006, le hack and slash français Silverfall proposait un contenu intéressant mais n’a pas fait l’unanimité. Cette nouvelle version stand-alone permet aux anciens joueurs de récupérer leur avatar ou choisir d’en créer un de niveau 45 car deux races supplémentaires seront disponibles, les nains et les hommes lézards. Au programme également, une cinquantaine de quêtes, neuf nouveaux boss, plus de compétences et l’arrivée de l’artisanat pour construire des armes et des armures enchantées et personnalisées, refonte de l’interface avec des éléments mobiles, plus de filtres et une caméra paramétrable, un mode multijoueur et un léger lifting des graphismes. Un tas d’ajouts alléchants donc, mais le titre manque toujours de finitions et aurait pu être mieux équilibré notamment au niveau de l’artisanat à l’intérêt limité. Si vous avez fait le tour de Titan Quest ou Sacred, Silverfall sera néanmoins un bon défouloir.

14

I PC Update

Frontlines : Fuel of War (THQ) Frontlines est un FPS militaire adoptant comme synopsis un conflit futuriste mondial déclaré suite à une pénurie de pétrole sur la planète. Le système de jeu reste classique, avec le choix de spécialités

Succès incontesté sur PS3 et XboX 360, Assassin’s Creed Director’s Cut Edition a débarqué sur PC en version Director’s Cut Edition, soit enrichie de quelques séquences. Ce jeu d’action/aventures vous met dans la peau d’Altair, un membre de la confrérie des assassins à la fin du 12e siècle lors de la Troisième Croisade. Immersif, spectaculaire, épique et parfaitement réalisé, le titre pèche par son IA et un gameplay parfois répétitif mais reste captivant et c’est une référence dans son genre. Cette version PC n’apporte pas de nouveautés indispensables mais est toujours aussi bien réalisée. Une machine puissante est nécessaire pour profiter pleinement des graphismes.

Frontlines : Fuel of War

Pirates of the Burning Sea


Assassin’s Creed Director’s Cut Edition

On les attend Sins of a Solar Empire

Sins of a Solar Empire (Stardock Corporation) Si vous avez aimé HomeWorld ou Galactic Civilizations, ne passez pas à côté de Sins of a Solar Empire. Ce jeu de stratégie spatiale en temps réel propose un riche gameplay, une prise en main facile et des graphismes réussis. Colonisation de planètes, collection de ressources, échanges commerciaux et marché noir, notion diplomatique, arbres technologiques, civil, militaire et logistique à développer, progression des unités par expérience, arsenal varié, tous les éléments sont réunis pour offrir de longues heures de jeu à base d’exploration, d’expansion, d’exploitation et d’extermination. Le jeu ne possède pas de véritables campagnes en solo puisqu’il s’agit seulement de cartes à jouer contre l’ordinateur, il aura bien plus d’intérêt en multijoueur. On regrettera une IA un peu molle et une bande sonore moyennement réalisée mais Sins of a Solar Empire est un titre que les amateurs

Rainbow Six Vegas 2

Rainbow Six Vegas 2 (Ubisoft) Le sixième opus de la série Tom Clancy est prévu le 21 mars. Sept nouveaux environnements de Las Vegas et treize cartes sont annoncés, un contenu multijoueur plus accessible avec deux nouveaux modes Démolition et Leader d’équipe, plus d’interaction entre le solo et le multijoueur avec notamment la possibilité de gagner de l’équipement et des médailles actifs dans les deux modes et le retour du mode coopératif. Les développeurs souhaitent également enrichir et simplifier l’usage des éléments tactiques et améliorer les graphismes.

Age of Conan : Hyborian Adventures (Eidos Interactive) Adaptation massivement multijoueur des romans de Robert E. Howard, Age of Conan propose un univers heroic fantasy sombre, violent et sanglant. Basé sur un système de progression par niveaux, vous devrez choisir votre avatar parmi trois races (Aguilonien, Cimmérien, Stygien), quatre archétypes (soldat, mage, rogue ou prêtre) et de nombreuses classes de personnages (gardien, chasseur, démonologiste, nécromancien, barde, etc.). Le jeu intègre un système de combat particulier puisqu’il ne sera pas possible de

PC Update

I 15


News Age of Conan : Hyborian Adventures

verrouiller un ennemi. Il faudra s’approcher de son adversaire et lui porter des coups en utilisant plusieurs touches du clavier qui pourront aussi être associées pour créer des combos plus ou moins difficiles à exécuter. Age of Conan gère aussi les combats sur une monture (cheval, chameau, mammouth…) et propose plusieurs modes PvP dont la conquête des royaumes (avec construction de châteaux et armes de siège), le Capture the Flag (le drapeau sera la tête du commandant adverse) et un mode Drunken Brawling qui vous invitera à aller boire quelques pintes à la taverne du coin avant de vous battre à main nue avec vos camarades. Age of Conan est basé sur DirectX 10 et sa sortie est repoussée au mois de mai.

Mass Effect

est un jeu dont on se souvient. Dommage que la campagne soit trop courte et espérons que la version PC améliore l’IA et les phases de jeu avec les véhicules. The Chronicles of Spellborn

The Chronicles of Spellborn (Spellborn Int) De tous les MMORPG à venir, The Chronicles of Spellborn est peut-être celui qui innove le plus. Pas à tous les niveaux, mais le gameplay aura, lui, de quoi en surprendre plus d’un. La principale nouveauté vient du fait que l’équipement de l’avatar (armes, armures, etc.) n’a aucune influence sur les combats, c’est l’habileté du joueur

Mass Effect (Microsoft Games)

News

L’un des meilleurs RPG futuristes de la Xbox 360 débarque sur PC au mois de mai. Mass Effect est un jeu avec une identité peu commune vous plongeant en 2183, à une époque où l’homme a déjà conquis les étoiles et pris contact avec de nombreuses races extraterrestres. Six catégories de personnages sont disponibles, avec une progression à base de niveaux et d’expérience acquise via des quêtes et combats vous faisant parcourir la galaxie. Avec son gameplay soigné, une aventure riche et bien cadencée, des personnages profonds, un système de dialogue dynamique, un scénario en béton et une bande-son du même acabit, Mass Effect

16

I PC Update

Sacred 2 : Fallen Angel

qui est donc mise en avant. Pas besoin donc de répéter telles ou telles quêtes et instances pour avoir l’item surpuissant à la mode, que tout le monde finira par avoir au final. Et le jeu n’empêche pas pour autant la personnalisation du look de votre personnage. Le système de combat vous oblige à tout faire vous-même, il n’y a pas de ciblage et d’automatisation des actions. C’est à vous de choisir une cible, de cliquer pour taper et de déclencher des coups spéciaux que vous devrez d’ailleurs configurer au préalable ; un peu comme Guild Wars mais avec beaucoup plus de possibilités (six barres sont disponibles avec chacune cinq slots). Il faudra donc choisir les combinaisons les plus efficaces qui pourront déclencher des coups critiques et des combos, ou à l’inverse bloquer celles de vos adversaires. PvP intensif, conquêtes de territoires, quêtes, arènes de combat, crafting (mais limité), tout y est ou presque. Le titre a beaucoup de retard et a encore été repoussé à la rentrée.

Sacred 2 : Fallen Angel (Ascaron) Placé 2 000 ans avant le premier opus, le hack and slash Sacred revient au mois de septembre. Six personnages seront proposés dont cinq nouveaux (Séraphin, Inquisiteur, Shadow Warrior, Haut Elfe, Dryad, Temple Guardian). Selon l’avatar, la campagne pourra se jouer du côté du bien ou du mal, avec une notion d’alignement prise en compte par les NPC. Cette fois, une race ne sera pas confinée à une école de combat, ce qui permettra de varier les plaisirs. Le monde semble gigantesque puisque pas moins de 35 km2 de carte aux environnements variés seront disponibles, sans temps de chargement et avec la possibilité d’utiliser des montures propres à chaque race et qui pourront elles aussi participer aux combats. Sacred 2 prévoit un mode multi en coopératif jusqu’à six joueurs pour la campagne solo, un mode en arène à dix joueurs pour le PvP et un mode libre à quinze joueurs en PvE. A première vue, le titre n’apportera pas d’énormes nouveautés mais s’il arrive au niveau du premier opus, ce sera certainement un succès.


CAS PRATIQUES

Cas Pratiques

Gagnez 2 Go de mémoire Corsair !

En nous envoyant une question technique par mail, vous pouvez gagner un kit mémoire Corsair 2*1 Go Twin2X 2048-8500C5D 8500 Dominator ou 2*2Go Twin2X4096-6400C5DHX 6400 ou encore une alimentation modulaire HX620W ! La rédaction choisira la question la plus pertinente et son auteur recevra les deux gigas de mémoire ! Notez que nous ne pourrons sans doute pas répondre de manière individuelle à toutes les questions ! Par : Thomas Olivaux

Gagnant du mois

J’ai un petit problème d’overcloking avec ma config. J’ai une DFI DK P35 T2RS (bios mis à jour), un Pentium E2220, 2x 1 Go de Crucial PC6400, une Radeon HD2400 Pro, un ventirad OCZ Vendetta et une alim Fortron Green 400W. Au lieu d’avoir un connecteur Molex pour l’alimenter, ma carte mère a un connecteur 8 pins 12V ; néanmoins je peux utiliser le 4 pins. Lors de mon overclocking, j’essaie au moins de dépasser les 320 mhz de FSB (coeff x12, vcore 1,4V, RAM désynchronisée au minimum) et paf le PC plante. J’ai tout essayé : augmenter le voltage du northbrige et southbridge, rien ne marche. Bien entendu j’ai désactivé les options EIST, spread spectrum, etc… J’ai réussi à tester mon processeur sur une Gigabyte P35DS3 et j’arrive facilement à dépasser les 400 mhz de FSB (coefficient x10, vcore 1,55V) ! Donc je me demande s’il ne faudrait quand même pas le connecteur 8 pins pour ma DFI, mais cela me parait bizarre puisqu’elle est certifiée FSB1333 et que je n’y monte même pas ! Sinon j’ai essayé de connecter le 6 pins destiné aux cartes graphiques mais le pc n’a pas voulu démarrer.

A

vant d’essayer de comprendre votre problème, permettez nous de vous féliciter, vous illustrer parfaitement ce pourquoi nous écrivons des guides d’overclocking, ça fait plaisir de constater que des personnes n’ayant pas forcément des budgets extensibles prennent du matériel particulièrement apte à cette pratique et n’hésitent pas mettre nos conseils en pratique. Votre E2220, un Pentium Dual Core (génération Core 2 Duo !) à 2,4 GHz monte donc sur votre machine jusqu’à 3,84 GHz environ (320 x 10) et serait capable d’atteindre 4 GHz sur la carte mère de votre ami. Wow, en simple air cooling, c’est impressionnant ! C’est un exemple de plus qui confirme (explose même) le titre d’un de nos précédents dossiers « 3 GHz pour tous » en partant de petits Pentium Dual Core et Core 2 Duo. Ce E2220 (Conroe, 2,4 GHz,

18

I PC Update

1 Mo de cache), vendu à l’heure actuelle 75 euros, dépasse à coup sur les performances délivrées par un puissant Core 2 Duo E8500 (Penryn 3,16 GHz 6 Mo de cache) à de telles fréquences ! Nous sommes bien plus réservés quand aux performances d’une Radeon HD2400 Pro même overclockée de 100%, mais peut être ne jouez-vous pas du tout. A propos de votre overclocking, nous ne pensons pas que votre alimentation soit en cause, il doit plus vraisemblablement s’agir d’un petit réglage difficile à trouver dans le BIOS. Le connecteur 8 pins dont vous parlez, ne sert pas à alimenter la carte mère. C’est le connecteur ATX principal de 24 pins qui s’en charge. La prise ATX 12V (c’est son nom) ne sert qu’à alimenter le processeur, c’est un complément d’énergie électrique qui lui est spécialement dédié depuis quelques années que les CPU consomment beaucoup (arrivé avec le Pentium 4 en 2001). A l’origine constitué d’un carré de 4 broches uniquement, il a finalement été adopté par AMD à partir de l’Athlon 64. Intel a fait évoluer ATX 12V il y a trois ans avec la sortie des premiers processeurs dual core de la marque, les très gourmands Pentium D (deux Prescott en un, le Prescott étant déjà réputé pour une consommation électrique excessive). Entre nous, avec les Core 2 si économes, le connecteur 8 pins n’a pas vraiment lieu d’être, 4 suffisant en principe la majorité du temps, surtout en dual core. Votre augmentation de tension ne semble pas suffisamment élevée pour que le problème passe par là. A vrai dire, comment


se comporte votre processeur ? S’il ne boot même pas, ce n’est pas lié à ça. S’il boot, fonctionne bien au repos sous Windows et plante immédiatement lorsque vous tirez dedans (un plantage franc ! PC qui s’éteint d’un coup ou qui reboot), alors nous sommes en droit de croire à un souci d’alimentation. Mais pourquoi, lorsque vous avez testé chez votre ami, n’avez-vous pas reproduit exactement les mêmes paramètres, à savoir 12 x 320 à 1,4 V ? Voir même avec seulement 4 pins de branché sur son PC (la majorité des alimentations modernes ont les deux connecteurs ou un connecteur huit broches séparable en deux). Au passage, le Molex dont vous parliez, utilisé notamment chez DFI depuis les célèbres LanParty en nForce4 mais aussi chez Asus ou MSI, ce connecteur n’avait pour rôle que d’alimenter plus efficacement les ports PCI-Express si fortement sollicités par les grosses cartes graphiques, en cas de SLI principalement. S’il est vrai que les cartes mères et même que les processeurs

imposent une limite de FSB (celle de la carte mère est, sauf extrême overclocking, plus restrictive), il n’y a aucune chance pour que celle-ci soit de 320 MHz rassurez-vous. Nous n’avons vu aucun CPU Intel génération Core 2 s’arrêter si tôt en FSB (de toute façon, votre test prouve qu’il passe à plus de 400, ce qui est logique, la limite en air cooling étant plutôt autour de 500 MHz), mais votre carte mère ne saurait être en cause non plus puisque le P35 est effectivement vendu pour 333 MHz et nous savons qu’ils passent tous la barre des 400 MHz sans forcer. De toute façon, les divers overclockers extrême qui peuplent la planète font l’éloge de ce modèle et s’ils parlent d’un bug (corrigé depuis) avec les Penryn… ce bug est une limitation avec les Penryn à un FSB de 520 MHz ! Bien que votre histoire d’alimentation ne soit pas totalement réglé (rien ne vaudrait un test avec une autre alim, évidemment), il faut selon nous fouiller le BIOS à la recherche du paramètre bloquant. La force des DFI réside dans la richesse de son BIOS pour les bidouilleurs, c’est aussi une faiblesse lorsque l’on ne comprend pas tout (rassurez-vous, nous non plus, la majorité des overclockers extrêmes non plus !). A commencer par la tension, êtes-vous certain de nourrir suffi-


CAS PRATIQUES sament votre CPU, tout simplement ? Vous parlez chez votre ami d’un essai à 1,55 V tandis que chez vous, à plus de 3,8 GHz, vous vous limitez à 1,4 V, pourquoi ? Avez-vous d’autre part analysé la chute de tension de cette carte mère (Vdroop) ? Sachant que ce modèle ne permet pas d’indiquer clairement « 1,4 V » mais « +0,1 V » ou « +0,2 V », avez-vous contrôlé la

tension qui en résulte ? Vérifiez dans le BIOS dans un premier temps, voir si votre réglage est le bon, puis sous Windows avec CPU-Z pendant que vous lancez un bench tirant à fond sur le CPU. Si votre carte mère souffre d’un Vdroop important, vous pourriez voir votre 1,4 V tomber plus prêt de 1,3 V lorsque le processeur à le plus besoin d’énergie ! A 3,84 GHz, aucun doute sur le fait qu’il ne passera pas à 1,3 V, 1,4 nous semblant déjà légers en refroidissement à air.

Faisant suite à votre dossier « CarPC » paru dans Hardware Magazine n°34, j’ai entrepris d’en monter un dans ma voiture. N’ayant pas encore reçu tout le matériel, je fais pour le moment des tests avec un vieil ordinateur portable Pentium 4 qui à puissance surement suffisante mais je rencontre pas mal de problème avec Centrafuse, l’une des interfaces dont vous faite l’éloge mais avec laquelle tout n’a pas l’air de fonctionner aussi facilement que cela. Pour commencer, je pour la partie téléphone, j’ai réussi à piloter mon GSM depuis le PC, mais je n’arrive pas à entendre la voix de mon correspondant dans les hauts parleurs ou qu’il m’entende avec le micro intégré à mon ordinateur. Ne peut-on pas utiliser un CarPC comme un véritable kit main libre ? Pour le GPS, impossible d’obtenir le moindre signal, j’ai pourtant un récepteur Sirf III qui fonctionne à la perfection avec mon PDA ! Enfin, ne peut-on pas se passer des messages d’alerte qui apparaissent systématiquement à l’ouverture de Centrafuse ? Je suis parfois tenté d’essayer une autre interface, mais maintenant que j’ai payé, j’aimerai que tout fonctionne !

E

n effet, bien qu’il soit payant là où d’autres interfaces sont gratuites, Centrafuse n’est pas exempt de défaut. Pour votre culture, nous vous invitons à essayer les autres, mais croyez bien que Centrafuse est tout de même, parmi les plus complètes et la plus facile à mettre en place. Nous avons-nous aussi rencontré de nombreuses difficultés, donc les votre,

20

I PC Update

voici l’endroit idéal pour donner plus d’explications quant à la configuration de Centrafuse, le nombre d’utilisateur étant trop peu nombreux pour que nous y consacrions un article complet. A propos de la téléphonie, il est possible non seulement de contrôler le téléphone depuis le PC (décrocher, passer un appel, lire/envoyer des sms), mais

aussi d’en faire un kit main libre Bluetooth. Toutefois, il faut d’une part que votre téléphone soit compatible (ce qui est le cas de la majorité des téléphones Bluetooth), mais il faut aussi que votre contrôleur Bluetooth du PC soit compatible, à savoir qu’il ait parmi les services proposés A2DP (profile de distribution audio avancée) et HFP (hand free profile). Ca n’est pas toujours évident à savoir, les constructeurs de dongle Bluetooth n’étant pas toujours très explicites, arguant qu’une clé BT est une clé BT… Le développeur de Centrafuse précise que les meilleurs résultats sont obtenus avec une clé compatible Broadcomm/Widcomm 3.x et supérieur. N’oubliez pas qu’une clé Blutooth, quelque soit sa marque, utilise la puce BT d’un des rares fondeurs qui en proposent. En fonction de cette puce et des accords commerciaux qui y sont liés, votre clé utilisera telle ou telle interface (Stack) Bluetooth. Les plus connues, outre celle de Microsoft et quelques solutions propriétaire type Toshiba, sont Broadcomm et BlueSoleil. Ce n’est pas en fonction du fabriquant de votre clé que vous choisirez votre stack Bluetooth, mais en fonction de la puce soudée sur la clé de votre choix ! Par exemple, nous utilisions au début une clé Belkin F8T003, celle-


ci utilisait la stack BlueSoleil (il est impossible d’utiliser une autre stack, à part celle de Microsoft, les autres étant bridés aux puces compatibles). Nous avons par là suite acheté une clé Bluetooth Belkin toujours, une F8T013 qui proposait les services adéquats pour faire de notre CarPC un kit main libre BT, cette dernière était justement livrée avec la stack Brodcomm 5.x. Il suffit alors d’activer le service passerelle audio en plus du port COM déjà utilisé pour la synchro entre votre téléphone et le PC. Il est très facile de se rendre compte si le service est possible ou non sur votre PC, il suffit d’exécuter une nouvelle fois l’assistant de téléphonie dans les réglages de Centrafuse. Après détection de votre téléphone, de son port COM, vous serez sollicité à propos de la fonction kit main libre (si compatible uniquement), à savoir si vous souhaitez la désactiver ou non. Notons que dans notre cas la qualité du son transféré aux enceintes est assez mauvaise (quoi qu’audible), nous n’avons toujours pas trouvé le moyen d’améliorer ce point. Enfin, Centrafuse impose diverses limitations dès que l’on roule, donc si vous utilisez la fonction GPS et que vous dépassez 0 km/h, vous ne pourrez plus utiliser votre kit main libre BT tout comme vous ne pourrez plus observer de vidéos. A ce sujet, bien que ça puisse être interdit par la loi selon les pays, il est très facile de faire sauter ces blocages ! Editez le raccourci de votre exécutable

pilote USB/COM (livré) pour que votre appareil une fois branché soit bien détecté comme un port COM. Il n’y a en fait pas de pilote pour le GPS en lui-même. S’il y a déjà des ports COM sur votre machine, le port COM de votre GPS prendra un numéro différent. Par exemple, s’il y a déjà COM1, COM2, votre GPS occupera certainement COM3. En Bluetooth, c’est pareil ! Il faut utiliser le service port COM pour établir un lien entre le PC et le GPS, au-delà l’association initiale des deux périphériques. Vous trouverez le chiffre du port COM de votre GPS BT dans l’utilitaire BT. Il faut bien entendu utili-

Centrafuse et, après les guillemets, ajoutez deux paramètres, -nowarning pour supprimer les avertissements au démarrage, -nolimit pour ne plus être bridé en roulant. Pour ce qui est du GPS, il est vrai que la configuration est perfectible. S’il parait évident qu’il ne faut pas se tromper de port COM et qu’il est assez facile de savoir lequel est attribué à son GPS, que régler pour la vitesse (BAUD) et le protocole (NMEA/SIRF) ? Tous les GPS communiquent avec le PC via un port COM. Attentions, nous sommes loin des ports série d’autrefois, le port COM étant aujourd’hui un standard de communication et non plus une prise physique. Si vous branchez un GPS USB, vous devrez au préalable installer un


CAS PRATIQUES

ser le bon port COM dans Centrafuse. Pour ce qui est de la vitesse, bien que de nombreux utilisateurs parviennent à faire différemment, il semble qu’il faille régler sur 4800 BAUDS pour les GPS USB et sur 38700 BAUDS pour les GPS BT. Le choix du protocole est plus compliqué qu’il n’y parait. Si la majorité des GPS vendus depuis deux ans sont équipés de puces SIRF, ça ne signifie pas que leur protocole par défaut est SIRF ! Pour beaucoup d’entre eux, afin d’assurer une compatibi-

lité maximale, ils sont réglé pour NMEA et il faut donc utiliser ce protocole dans Centrafuse. Pour vos GPS SIRF, vous pouvez télécharger SIRFDemo pour contrôler au préalable que votre récepteur GPS fonctionne bien et, grâce à cet utilitaire, vous serez en mesure de changer le protocole par défaut de votre GPS. Précisons, au cas où vous en douteriez, qu’il est parfaitement possible d’utiliser plusieurs périphériques Bluetooth simultanément, par exemple un téléphone et un GPS dans Centrafuse. Selon les configurations, il se peut que le GPS « rame », à savoir qu’en pleine navigation il affiche le point de votre auto entre une et trois secondes après que vous y soyez passé. Ca n’est pas trop un problème sur autoroute, mais dans une ville complexe, c’est perturbant. Vous pouvez passer sur l’affichage 2D pour régler tout ou partie du problème (la 3D du moteur Destinator n’est de toute façon pas très séduisante) et

sinon, il faudra attendre une prochaine mise à jour de Centrafuse qui utilisera le moteur Destinator 7 à la place de Destinator 6, en espérant que celui-ci soit amélioré. Centrafuse est encore un logiciel jeune et en plein développement. Il évolue très vite et il y a fort à parier qu’il va se bonifier avec l’âge. Lorsque vous l’avez acheté, vous êtes vous contenté de la version 1.20 en téléchargement ? Rendez-vous sur les forums (forums. fluxmedia.net), vous pourrez y télécharger les mises à jour les plus récentes qui améliorent sensiblement les aptitudes et le fonctionnement. Nous en sommes actuellement à la version 1.47. N’oubliez pas non plus que des plug-ins sont téléchargeables, comme par exemple le plug-in TV (incompatible avec les tuners TNT hélas). Sachant que nous avons eu quelques demandes à propos de RoadRunner, une autre interface très sympathique, rendez-vous le mois prochaine pour d’autres cas pratiques !

On lit un peu partout quand on commence a overclocker qu’il faut désactiver «EIST», «CE1» ou AMD Cool n’quiet ». Pour des tests de stabilité, je comprends, mais pour une utilisation de tous les jours, je trouve que c’est du gâchis de laisser tourner toujours le processeur à pleine fréquence même lorsqu’il ne fait rien. Peutactiver ces fonctions après overclocking ? Les grandes puissances ne m’intéresse pas, je n’overclock pas au dessus de 300 ou 400 Mhz mon E2180 sur GA-P31-DS3L et 1 Go de Crucial Ballistix en 6400.

V

ous avez parfaitement raison, supprimer toutes ces fonctionnalités modernes sont parfaitement anti écologique et, tant que possible, autant s’en servir. Ce sont aussi nos oreilles qui les apprécient lorsque le refroidissement du processeur se calme. Attention, nous

22

I PC Update

n’avons jamais dit qu’il n’était pas possible d’overclocker avec des fonctions pareilles, simplement que celles-ci pouvait à un moment donné représenter un frein. Avec un léger overclocking comme le votre, nous sommes a peu prêt sur que vous pouvez laisser EIST activé ! Le problème est le suivant. Lorsque EIST s’active (CnQ chez AMD), non seulement le coefficient diminue en cas de non sollicitation (et donc la fréquence avec), mais la tension électrique baisse aussi de plusieurs dixièmes de volts pour consommer/ chauffer au minimum, la baisse de fréquence et de tension étant différente selon le modèle de processeur. Prenons un processeur X, conçu pour tourner à 2,4 GHz (9 x 266) à 1.4 V et, mode d’économie d’énergie activé, il se retrouve à 1,6 GHz (6 x 266) à 1,1 V. Admettions que vous l’overclockiez à 3,42 GHZ (9 x 380) à 1,6 V (+ 0,2 V donc) et qu’il soit stable ainsi ; il y a de fortes chance pour qu’il tienne en mode vitesse réduite à 2,28 GHz (6 x 380) à 1,3 V (1,1 + 0,2). Mais si vous continuez d’augmenter ou si vous touchez moins à la tension, il se peut par exemple que votre CPU tient l’overclocking pleine fréquence

mais plante au retour à la fréquence réduite. C’est donc pour ne pas être bloqué par cette limitation que nous conseillons pour les overclockers de les désactiver. Rien n’empêche d’essayer, ça fonctionne souvent et c’est tant mieux !


Test

790i (Ultra) SLI

Un bon cru chipset

Après un nForce 780i SLI peu convaincant, nVidia nous propose aujourd’hui les 790i SLI et 790i Ultra SLI, premiers chipsets DDR3 de la marque. Alors, cette fois-ci, évolution ou révolution ?

Thomas Olivaux

E

n février, dans Hardware Magazine n° 33, nous testions le « nouveau » chipset nVidia 780i SLI pour processeurs Intel. Malgré quelques évolutions, nous étions resté sur notre faim, ce chipset étant plus un 680i SLI bricolé qu’autre chose. Décidé à rejoindre Intel sur le segment du très haut de gamme avec la mémoire DDR3, nous testons aujourd’hui le dernier-né de la firme au caméléon, le 790i SLI.

Exit C72, welcome C73 Le chipset nForce 790i SLI est composé de deux puces. Le southbridge est un « classique » MCP55 (apparu en 2006 avec la famille nForce 5 !) tandis que le northbridge est de conception totalement nouvelle, il s’agit du C73, le premier SPP avec contrôleur de mémoire DDR3 proposé par nVidia. Le C73 n’est pas un simple C72 dont le contrôleur de mémoire aurait été changé, il s’agit véritablement d’une nouvelle

24

I PC Update

puce. Signalons pour commencer la présence d’un véritable contrôleur PCI-Express 2.0, contrairement au 780i SLI qui se veut compatible PCI-Express 2.0 via « bidouille » : adjonction d’une troisième puce, nForce 200, pour ajouter des lignes PCI-Express ; ces lignes sont d’ailleurs parfaitement configurables en 2 x 16X, 4 x 8X ou 1 x 16X + 2 x 8X. En sus de ces 32 lignes PCIExpress 2.0, s’ajoutent les quelque 30 lignes PCI-Express 1.1 que contrôle le MCP, dont un troisième véritable port 16X pour cartes graphiques. Ce chipset est, bien sûr, conçu pour faire fonctionner une machine avec trois cartes graphiques monstrueuses configurées en 3-Way SLI !

Comme toujours, nVidia propose une carte mère de référence (le ventilateur est optionnel) reprise par divers constructeurs peu créatifs tels que XFX.

Il existe deux versions de nForce 790i, le 790i (non Ultra) SLI et le 790i Ultra SLI. Absolument aucune différence entre les deux ! nVidia se contente de faire une sélection des meilleurs chipsets en sortie de chaîne, ceux qui montent plus haut en FSB, et les estampille « Ultra ». Rassurez-vous, le 790i « tout court » SLI que nous avons testé ayant déjà atteint 505 MHz (FSB2020), il y a déjà largement de quoi faire ! Les premiers essais du 790i Ultra SLI en overclocking le placent au niveau des meilleurs processeurs Intel P35/X38/ X48, c’est-à-dire à plus de 650 MHz !


Bien entendu, les deux chipsets sont conçus pour le FSB1600, le nouveau bus d’Intel inauguré par le QX9770, quad core de 3,2 GHz. Le 790i inaugure aussi la version 2.0 de SPP, la gestion automatique de la mémoire haute performance par nVidia, à utiliser conjointement avec de la RAM « SLI Memory ». Il s’agit là d’exploiter plus facilement sa DDR3 haute performance, comme SPP le faisait déjà sur les plates-formes DDR2 haut de gamme du constructeur ou, plus récemment XMP d’Intel sur les chipsets X38/X48. Le 790i Ultra SLI supporte officiellement jusqu’à la DDR3-2000 ! Pour tester ce nouveau chipset, nous avons reçu la carte mère Asus Striker II NSE. Issue de la famille ROG (Republic of Gamers), elle vient en complément de la Striker II Formula

Difficile de distinguer une Striker II NSE d’une Striker II Extreme sans « extrême overclocking ».

(780i SLI DDR2) que nous avons déjà testée et sera épaulée par la Striker II Extreme, la version 790i Ultra. A l’exception du chipset, notre Striker II NSE est identique à la Striker II Extreme. Elles embarquent notamment toutes les deux le système de refroidissement évolué Fusion, avec possibilité de raccordement à un système watercooling, que la Striker II Formula n’a pas. Pour le reste, comme vous vous pouvez vous en douter, vu la gamme, et le constater en lisant la fiche technique, que du bon ! Le BIOS de la

carte mère est d’une rare richesse et nous retrouvons une nouvelle fonction déjà aperçue sur la Striker II Formula,

Les plus/les moins Performances Conso/chauffe Véritable PCI-Express 2.0 FSB1600 Overclocking Prix Variantes Ultra et non Ultra difficiles à justifier

Les nForce 7 pour processeurs Intel

nForce 790i Ultra SLI

nForce 790i SLI

nForce 780i SLI

nForce 750i SLI

Socket

775

775

775

775

FSB max.

1 600 (400 MHz ; pratique = + de 600 MHz)

1 600 (400 MHz ; pratique = + de 450 MHz)

1 333 (333 MHz)

1 333 (333 MHz)

SLI

Oui, compatible 3-Way (3 x 16X)

Oui, compatible 3-Way (3 x 16X)

Oui, compatible 3-Way (3 x 16X)

Oui (2 x 8X)

ESA

Oui

Oui

Oui

Non

Mémoire

DDR3, jusqu’à 2 000 (EPP 2.0)

DDR3, jusqu’à 2 000 (EPP 2.0)

DDR2, jusqu’à 1 200 (EPP)

DDR2, jusqu’à 800

PCI-Express 2.0

Oui

Oui

Oui

Oui

PCI-Express

62 lignes (3 x 16 ou 4 x 8 + 1 x 16 + 1 x 8 + 6 x 1)

62 lignes (3 x 16 ou 4 x 8 + 1 x 16 + 1 x 8 + 6 x 1)

62 lignes (3 x 16 ou 4 x 8 + 1 x 16 + 1 x 8 + 6 x 1)

26 lignes (1 x 16 + 1 x 8 + 2 x 1)

PCI

5

5

5

5

SATA

6

6

6

4

PATA

2

2

2

4

RAID

0/1/0+1/5

0/1/0+1/5

0/1/0+1/5

0/1/0+1/5

Gigabit Ethernet

2

2

2

1

Audio

HD Audio

HD Audio

HD Audio

HD Audio

USB

10

10

10

8

PC Update

I 25


Test il s’agit d’overclocking facile « à la carte ». En effet, le système détecte le processeur que vous utilisez et, outre les diverses méthodes d’overclocking habituelles, vous propose d’overclocker votre CPU comme un modèle supérieur ! Par exemple, glissez un Q6600 dans votre PC, le BIOS vous proposera de l’overclocker automatiquement afin d’obtenir des performances de Q6700 ou de QX6850 !

Très cher 790i A l’usage, vous verrez que le nForce 790i est très performant. Quand il ne dépasse pas ses concurrents, il n’est jamais bien loin de les égaler. Notons aussi de très importants progrès en matière de consommation/chauffe par rapport aux nForce 680/780 ; nous avons gagné plus de 50 W (!) sur notre plate-forme de test à fréquence identique et le chipset passe au toucher de bouillant à juste chaud, comme sur n’importe quelle puce Intel tant que l’on n’overclocke pas à fond le bus. A vrai dire, tout va bien dans le meilleur des mondes jusqu’ici. Des performances dignes d’un X48, une gestion au top de la DDR3, une compa-

Des témoignages sur Internet font état de corruption de données en utilisant de la DDR3 hautes performances ; nous n’avons pas pu reproduire ce problème sur notre plateforme de test.

26

I PC Update

modèles sortis à l’heure actuelle dépasse la barre des 300 euros. Là, c’est le drame. Chez Asus, les prix publics annoncés pour les Striker II NSE et Extreme sont de 343 et 384 euros, c’est complètement fou, même si les prix déjà constatés en boutiques sont un peu plus accessibles (280 et 330 euros). Bien sûr, pour aggraver le tout, n’oublions pas le passage forcé à la DDR3 qui coûte quatre fois plus cher que la DDR2 à l’heure actuelle. Au passage, nous poutibilité SLI complète (y compris 3-Way SLI) et ESA pour la gestion de la ventilation, que demander de plus ? Des euros, mon bon monsieur ! Car pour vous offrir la plate-forme la plus rapide du moment, il faudra en débourser un bon paquet. Selon nos sources, un chipset nForce 790i Ultra SLI est facturé 115 dollars pièce au constructeur de cartes mères. Oui, oui, vous avez bien lu 115 dollars, rien que pour le chipset. Le nForce 790i SLI « NSF » (non Ultra) ne coûte, lui, que 78 dollars, ce qui n’est pas rien en soi, en comparaison des 50 à 60 dollars d’un X48 actuellement (70 dollars à l’origine) et surtout, l’écart de 37 dollars n’est absolument pas justifié. Verdict ? Il va être difficile de trouver des cartes mères nForce 790i à moins de 250 euros, la majorité des

vons une nouvelle fois nous demander pourquoi nos produits informatiques ne bénéficient pas plus de la conversion euro/dollar à notre avantage. Vu les performances déjà plus que satisfaisantes du 790i SLI en overclocking, pourquoi acheter un 790i Ultra tellement plus cher ? Quand on voit qu’une belle carte mère X48 coûte entre 200 et 250 euros, la différence est déjà bien assez élevée pour ne pas en rajouter inutilement. En attendant de voir les prix baisser, passons aux mesures de performances afin de vous faire saliver quelque peu.


Performances Benchmarks

11066

X48 DDR3 X48 DDR3

9755 4612 11054

X48 DDR2

9741 4603 10594

790i SLI DDR3

9712 4591

Reprenant la même méthodologie de test que pour le 780i SLI, nous voyons dans ce premier test que le 790i SLI obtient des résultats strictement identiques à ses confrères et concurrents. A vrai dire, il commence même « mal » puisque Cinebench est un peu en retrait.

10654

780i SLI DDR2

9685 4532 10632

680i SLI DDR2

9684 4530 0

2000

Cinebench R10

4000

6000

PCMark05 CPU

8000

65 31,7 67

X48 DDR2

12000

En matière d’encodage, nous constatons plus d’écart, en faveur du 790i SLI cette foisci. Notons que la DDR3-1600 se révèle ici utile vu que le X48 progresse lui aussi par rapport au X48 accompagné de DDR2-1066, mais le 790i SLI finit en tête.

Encodage (FPS) X48 DDR3 X48 DDR3

10000

3DMark06 CPU

30,2 65

790i SLI DDR3

32,3 68

780i SLI DDR2

29 66

680i SLI DDR2

28,8 10

20

30

40

x264

50

60

70

80

DivX Nos deux tests réalisés sous Photoshop CS3 et Winrar 3,71 n’offrent pas grande variation, mais notons une nouvelle victoire du 790i SLI avec la DDR3, la plate-forme la plus rapide.

Production (temps en S) 102

X48 DDR3 X48 DDR3

50 102

X48 DDR2

51 101

790i SLI DDR3

50 102

780i SLI DDR2

52 102

680i SLI DDR2

52 30

40

50

Winrar 3,71

60

70

80

90

100

110

Photoshop CS3 PC Update

I 27


Test Dans nos deux jeux de test, il est très difficile de constater le moindre écart d’une plateforme à l’autre, mais la carte graphique joue bien sûr un rôle prépondérant.

Jeux (FPS) 191

X48 DDR3 X48 DDR3

67,3 190

X48 DDR2

66,1 189

790i SLI DDR3

65,9 188

780i SLI DDR2

65,7 189

680i SLI DDR2

65,8 0

50

100

HL2 Episode 2

Les tests USB 2 et RAID5 sont identiques entre les divers chipsets nVidia, et pour cause, ils se partagent le même MCP ! Notons ici le retard d’Intel, le contrôleur de stockage intégré à l’ICH9R étant un peu moins véloce.

150

200

250

Crysis

PCMark05 Ͳ USB 2.0 et RAID5 3097

X48 DDR3 X48 DDR3

2784 3095

X48 DDR2

2785 3303

790i SLI DDR3

2753 3301

780i SLI DDR2

2750 3297

680i SLI DDR2 Pour terminer, ce graphique illustre un constat intéressant pour les fans de SLI. En effet, contrairement aux chiffres monoGPU qui n’évoluent guère, nous pouvons constater un léger mieux en SLI ; le 790i SLI offre de meilleurs gains en SLI que le 780i SLI.

2749 1000

1500

2000

RAID 5

Gains en SLI

31,3

790i 9600 GT SLI

36,2 17,9 21,6 29 7 29,7

780i 9600 GT SLI

34,2 15

20

1920x1200

28

I PC Update

3500

USB 2.0

Voici les consommations relevées de nos deux machines basées sur une Striker II Formula (780i SLI) et une Striker II NSE (790i SLI). La différence de conso entre ces deux plates-formes est sensible et appréciable ! Notons que l’écart entre « repos » et « charge » n’est pas aussi élevé que celui annoncé pour la consommation de la 9600 GT dans le dossier spécial cartes graphiques, mais contrairement à ce dernier, nous parlons là de la consommation de toute la machine, d’autres composants interviennent donc dans la mesure.

22

780i 9600 GT

3000

Conso en baisse

18 4 18,4

790i 9600 GT

2500

25

1680x1050

30

35

40

790i SLI

780i SLI

Repos (9600 GT)

138 W

162 W

Charge (9600 GT)

196 W

229 W


Dossier

Peer 2 Peer : • Comment ca marche ? • Bien choisir son réseau P2P et ses logiciels • Que dit la loi ? Le Peer 2 Peer remonte à 1999. A cette époque, Napster ouvrait une ère nouvelle dans le petit monde du téléchargement. Depuis près de 10 ans, le Peer 2 Peer n’a cessé d’évoluer, d’affiner ses structures, ses réseaux, ses modes de fonctionnement pour aller toujours plus vite, toujours au plus efficace et au plus convivial. Petit tour d’horizon des modes de fonctionnement des réseaux P2P.

30

I PC Update


L

e Peer 2 Peer est la star du téléchargement, légal ou non. Surtout illégal en fait… ce qui l’a rendu aussi populaire. Installer un client P2P et chercher et télécharger des chansons sont des choses simples, rapides et qui ne nécessitent quasiment aucune connaissance spécifique. D’où l’engouement des jeunes Français pour ce vecteur d’échange de fichiers. Mais le Peer 2 Peer n’est pas forcément le diable que l’on décrit à longueur de mission parlementaire ou d’interview télévisée. Si son volet sombre occupe une grande partie de la scène, il existe aussi un P2P propre. Et certains artistes dans l’ère du temps, en rupture avec le système des maisons de disques, se sont fait fort de prouver que l’on peut diffuser du

de contenus à l’époque des réseaux. Le P2P a mis un gros coup de pied dans la fourmilière et fait bouger les choses. Dans le bon sens ou non, à vous de juger.

Les principes de fonctionnement Le Peer 2 Peer fait couler beaucoup d’encre depuis de nombreuses années. Tous les ans, on prédit sa mort et tous les ans… il survit. Il faut admettre que c’est un moyen d’échange de fichiers d’une incroyable souplesse et d’une incroyable efficacité. Mais contrairement à ce qu’on est enclin à croire, le P2P n’est pas qu’un vecteur de piraterie. S’il permet souvent de partager des fichiers, le P2P peut aussi servir à partager des flux multimédias en streaming ou à faire passer des conversations téléphoniques comme

Attaqué de tous les côtés, Pirate Bay, le plus gros tracker BitTorrent semble rester impassible malgré la tempête. Même pas peur !

contenu gratuitement en ligne via le réseau BitTorrent et réussir à vendre des albums à un prix hypercompétitif… et à en faire un succès commercial. Comment fonctionnent les réseaux P2P, quels sont les outils qui les utilisent, que fait la loi pour lutter contre le piratage de fichiers ? Le sujet est vaste, passionnant et pose la question de l’évolution des moeurs et de la conception de la distribution

avec Skype, par exemple. Eh oui, le client téléphonique le plus connu au monde utilise un protocole Peer 2 Peer. Donc ce mode d’échange n’est peut-être pas aussi diabolique que ce que l’on peut entendre au quotidien. Il a aussi des usages « propres ». Mais c’est bien l’échange de fichiers qui a rendu le protocole P2P aussi populaire. Et cette popularité est ellemême due à la simplicité de mise en oeuvre. Plus la peine d’aller chercher du contenu sur des serveurs, les fichiers sont stockés sur les PC de monsieur tout le monde partout dans le monde. On ne se connecte plus à un serveur, mais à plusieurs sources en même temps. Facile ! Pensez donc, au tout début des téléchargements illégaux, l’une des pratiques les plus répandues était le « squat » d’un serveur. Dans les faits, une équipe de pirates donnait rendez-vous à des téléchargeurs potentiels sur tel serveur entre telle heure et telle heure pour télécharger tel contenu. Le plus souvent, le serveur en question était un serveur d’entreprise mal protégé

eMule est aujourd’hui l’un des outils les plus populaires avec Bit Torrent

Napster, celui par qui le Peer 2 Peer est devenu un phénomène de masse.

PC Update

I 31


Dossier Le plus célèbre logiciel de Voip du monde utilise un réseau Peer 2 Peer

qui servait de base d’échange involontaire. Eh oui, certains ont connu ça… et le premier qui traite ces « certains » de vieux prend un gage !

Les débuts du réseau P2P : le réseau centralisé L’apparition de Napster en 1999 a bouleversé la donne. Fini les FTP pirates et aussi les sites pollués de cochonneries… inutile de chercher des adresses qui changeaient tout le temps. Un client léger, une bonne connexion Internet et une requête plus tard, on avait les sources disponibles. Mais Napster ne proposait qu’un réseau « partiellement » Peer 2 Peer. En effet, si les échanges de MP3 (un format dont la popularité d’aujourd’hui doit beaucoup au P2P) se faisaient de client à client, les sources étaient centralisées sur des serveurs Napster qui mettaient les clients en relation entre eux. Une sorte de proxénétisme informatique… Ce qui a conduit le site à sa perte. Procès, menaces… les serveurs Napster ont été une cible facile pour les autorités et les majors. Et depuis qu’il est rentré dans le rang, Napster est mort. Le premier type de réseau Peer 2 Peer était donc un réseau partiellement centralisé autour de serveurs dédiés. Le gros avantage était que ce genre d’architecture permettait d’avoir une vue d’ensemble du réseau parfaite et des recherches rapides. Mais si un serveur tombe, plus de réseau. Et juridiquement, comme on l’a vu, c’est fragile.

32

I PC Update

Les réseaux purement P2P : le réseau distribué Cette méthode est « morte » et a laissé la place à un système totalement décentralisé dans lequel les utilisateurs sont mis en contact directement entre eux. C’est assez efficace et juridiquement plus sûr. Moins vulnérable techniquement, cette architecture n’est pas tributaire de la bonne tenue d’un serveur. Si le poste de monsieur Michu est mort,

ce n’est pas grave, il y a des milliers d’autres messieurs Michu sur la planète. Donc, on n’est jamais à court de sources. Par contre, le revers de la médaille, c’est que la moindre recherche prend plus longtemps et génère une quantité incroyable de résultats. Dans la théorie, avec ce genre de réseau dès que l’on fait une requête, elle est adressée à chaque client connecté au même réseau. On imagine donc que si

Il est primordial de connaître l’état de sa connexion internet avant de configurer le logiciel de P2P de votre choix. Bon chez nous quand mon voisin écoute sa web-radio préférée c’est pas brillant.


plusieurs dizaines de milliers de postes sont reliés au réseau en même temps, le résultat de la recherche risque de prendre des heures. Pour limiter les délais, plusieurs techniques existent. La première est la limitation volontaire du nombre d’utilisateurs visibles par un pair (peer). Cet horizon (c’est le terme technique désignant le nombre de pairs pouvant être vus) ainsi restreint, les requêtes vont d’abord aux pairs visibles en premier horizon avant de se propager aux autres horizons en cas d’échec et d’absence de résultat. En plus de cette limite d’horizon, on utilise aussi beaucoup le « Timeout » : la recherche s’arrête lorsque la réponse tarde trop à arriver. Apparemment, tout va bien. Mais… il y a toujours un mais. Dans le cas d’un réseau centralisé comme celui de Napster, les serveurs centralisaient ce que l’on appelle une Distributed Hash Table (Table de hachage en français). Cette table est un gros système d’indexation qui permet d’éviter la prolifération des fichiers inutiles (fichiers portant des noms différents mais avec des contenus identiques). Dans le cas de réseaux décentralisés, il n’y a plus de serveur pour gérer cette Hash Table. Donc le rôle revient à chaque pair qui prend en charge une partie de cette fonction. Problème, si beaucoup de ces pairs disparaissent, une partie de l’annuaire recensant les ressources partagées part avec l’eau du bain. Donc, aux grands maux, les grands remèdes : plusieurs pairs sont en charge de la même partie de la Hash Table en même temps. Statistiquement, les chances de tout perdre sont considérablement réduites.

Le réseau hybride… un peu centralisé, un peu décentralisé Un troisième type de réseau Peer 2 Peer existe. Il combine les deux topologies précédemment décrites. C’est le réseau hybride, un mélange de P2P centralisé et décentralisé. C’est entre autres la topologie utilisée par un Gnutella ou un FreeHaven. Plus complexe, ce type de réseau se base sur des serveurs, ou,

Y a pas que le P2P dans la vie ! La terre entière est focalisée sur le démon du Peer 2 Peer. Normal, c’est le plus médiatisé. Mais les gros téléchargeurs savent bien que le P2P, malgré ses avantages certains, reste lent, peu sûr et parfois aléatoire. L’ancêtre est toujours vigoureux. L’ancêtre ? IRC bien sûr ! IRC signifie Internet Relay Chat. C’est en fait l’ancêtre de Messenger plus que celui du P2P. Sauf que… s’il permet le chat (sa fonction première), IRC permet aussi l’échange de fichiers. Le réseau IRC est constitué de plusieurs réseaux (Undernet, Dalnet, EFnet, IRCnet, etc.) comptant C’est austère, c’est vieux , ça demande de connaître chacun plusieurs channels ou canaux. En se certaines commandes et ça ne paie pas de mine, mais l’IRC est toujours diablement efficace. connectant à un canal, on se retrouve dans un environnement dans lequel on peut échanger des fichiers. La chose est aisée. Le plus dur étant de trouver le bon canal et de ne pas raconter trop de bêtises qui se solderaient par un « /kick » assez honteux. Mais une fois qu’on y est, c’est sympa. LE plus difficile en fait est de se faire à l’interface austère et nécessitant l’apprentissage de certaines commandes afin de surnager. Mais si on a l’impression de faire un bond dans le passé, au bout du compte, on s’y prend et l’échange d’idées, de conversations ou de fichiers via IRC est à la longue très sympa. Problème, le réseau IRC est sans doute le vecteur de transit d’images pédophiles le plus en vogue. Oui, ça calme. Etant le mode d’échange le plus « sûr » a priori (le chat entre deux personnes peut être privé), les pervers de toute la galaxie s’y donnent parfois rendez-vous. Mais les gendarmes veillent au grain et des sections spéciales dites Ntech ont été créées afin (entre autres) de traquer les pervers de l’IRC. Avec un certain succès d’ailleurs. L’autre moyen de récupérer des fichiers, ce sont les newsgroups. Là encore, il s’agit d’un protocole hypervieux, mais toujours aussi efficace. Problème, les fournisseurs d’accès, sous la pression toujours croissante de l’industrie du disque et des autorités, censurent de plus en plus de serveurs accessibles. Il ne reste plus à l’internaute intéressé qu’à se trouver un fournisseur de « news » moins regardant, mais proposant ce service contre un abonnement en argent sonnant et trébuchant. à l’occasion, sur le PC de l’un d’entre vous qui peut faire office de serveur, qui gèrent un certain nombre de pairs. Les serveurs sont ensuite reliés entre eux et d’une certaine façon, tous les pairs aussi. Si l’information relative au fichier que vous recherchez n’est pas disponible sur le serveur qui gère le groupe auquel vous êtes rattaché, la requête est transmise à un autre serveur et ainsi de suite jusqu’à obtention d’une réponse.

Le P2P privé… P3P ? Cet aspect du Peer 2 Peer est plus récent et découle directement des législations contre la copie et le piratage de plus en plus restrictives. Le

but du P2P privé est de rendre le transit de l’information sinon confidentiel, au moins extrêmement difficile à tracer. Certains appellent ce type de P2P, le P3P, comme Peer 2 Peer de troisième génération. Un peu abusive, cette dénomination regroupe des utilitaires tels que ANTs, Alliance, Share, WASTE, Freenet, GNUnet, Mute, Grouper, TribalWeb. Très peu populaire jusqu’alors, il répond à une peur des téléchargeurs de la répression de plus en plus forte. Sur ce type de réseau, les données peuvent être cryptées et les requêtes passent par plusieurs pairs avant d’aboutir. Une fois le fichier trouvé, les morceaux cryptés sont rapatriés vers le poste du demandeur en passant par une multitude d’autres pairs, qui euxmêmes ne peuvent pas lire le contenu des fichiers qui transitent par leur ordinateur. Bref, tout est fait pour rendre l’identification des utilisateurs aussi complexe que possible, y compris aux yeux des fournisseurs d’accès que l’on soupçonne de devenir, un jour et si la loi l’exigeait, les premiers flics du réseau.

PC Update

I 33


Dossier Par défaut Vista n’est pas très amical avec les logiciels de P2P… veillez à bien les débloquer avant de les utiliser

Caverne d’Ali Baba… ou pas

Les réseaux P2P ont évolué dans leur structures afin de mieux gérer les recherches, les téléchargements et d’être plus difficilement traçables.

Décrit comme ça, le Peer 2 Peer ressemble à une caverne d’Ali Baba dans laquelle tout le monde pourrait venir télécharger ce que bon lui semble en toute confiance et sans aucun remords. Malheureusement, la réalité rattrape vite les doux rêveurs. Trouver l’information n’a rien de complexe. Les logiciels de P2P intègrent un moteur de recherche performant et vous pourrez choisir vos fichiers en fonction de divers critères, allant du simple nom du fichier à ses paramètres de compression audio ou vidéo. C’est archisimple. Mais les choses se corsent dès que l’on a identifié le fichier désiré. On risque de se heurter aux limitations de l’ADSL et de ses débits asymétriques. La bande passante allouée par votre FAI est bien plus importante en download qu’en upload. Concrètement, dans le cas du P2P, vous risquez d’être bridé par la bande passante montante des autres pairs chez qui vous allez récupérer les fichiers. Certains ont trouvé une solution astucieuse : puisqu’on ne peut pas forcer la bande passante montante d’une connexion, on peut simplement découper le fichier téléchargé en une myriade de petits fichiers téléchargés depuis plusieurs pairs simultanément. Les différents blocs constituant un même fichier sont reconstitués une fois rapatriés. L’autre avantage d’une telle méthode de découpe est de permettre la vérification de l’intégrité d’un fichier. Si le total des blocs diffère du total théorique, le client peut télécharger les blocs manquants à partir d’autres sources. C’est parfait, très astucieux et ça marche. Le seul gros problème du Peer 2 Peer vient en fait de son extrême popularité. Contrairement à d’autres modes de téléchargement, le P2P regorge de pièges en tout genre. N’hésitant pas à appâter le gogo, certains cachent des virus, des spywares et autres joyeusetés dans des fichiers apparemment anodins… qui vous dit que le fichier que vous téléchargez contient bien un film et pas une cochonnerie ? Vous ne le saurez qu’une fois le fichier reconstitué sur votre PC et il sera trop tard. Bref, le P2P c’est bien, mais c’est très surveillé, son avenir légal est plutôt tourmenté et le réseau regorge de tordus en tout genre. Ça calme un peu, non ? Tout ceci pour insister sur le fait que l’utilisation du P2P impose une prudence extrême.

34

I PC Update


Le P4P, un super P2P ? L

e Peer 2 Peer, avant d’être un réseau illégal est surtout un réseau diablement astucieux. Même s’il est sous les feux de la justice, le P2P est toujours un protocole intéressant auquel certains voient déjà une suite : le P4P. Le sigle signifie Proactive network Provider Participation for P2P et est promu par Verizon, un gros fournisseur d’accès américain.

50 partenaires pour un P2P plus rapide Le développement de ce protocole d’échange de fichiers nouvelle génération se fait en partenariat avec des acteurs majeurs du P2P comme BitTorrent et Lime Wire, mais aussi avec d’autres FAI, avec des chercheurs de grandes universités américaines et… des fournisseurs de contenus comme Time Warner ou Universal. En tout, le P4P Working Group regroupe une cinquantaine d’acteurs. Bref, tout le monde travaille main dans la main pour créer un système d’échange de fichiers performant. Pourquoi donc les « victimes » habituelles du P2P y sontelles associées ? Tout simplement parce que la diffusion de contenus sur le Web, et donc de gros flux multimédias, nécessite une infrastructure à laquelle le P4P peut parfaitement répondre. D’ailleurs, le premier à expérimenter le P4P devrait être NBC qui va diffuser ses programmes du soir sur le Net via ce protocole. Donc échange de fichiers, oui, mais on part cette fois sur une base légale.

P2P local Le P4P doit accélérer les transferts en localisant la source. Le P2P classique ne sélectionne pas les sources. Si un pair a une source et qu’il est situé à l’étranger, il ira chercher l’info là-bas. Le P4P vise d’abord à récupérer les sources chez les pairs les plus proches géographiquement, en partant du principe que plus la source est proche, plus la vitesse de transfert est élevée. Ce qui, au passage, fait dire aux détracteurs de la technologie que c’est un P2P régional et donc sans intérêt. Revenons au fonctionnement local du P4P. Le protocole utilise deux armes : le pTracker (peer Tracker) et le iTracker (internet Tracker). Quand vous saisissez une requête, le pTracker va essayer de trouver les données cherchées dans la région. Mais si par hasard, on ne trou-

Plus qu’un super P2P, le P4P développé par des institutionnels de l’audio-visuel semble se destiner à la diffusion de contenu multimédia en direct.

vait pas de données en local, le iTracker prendrait le relais et élargirait la recherche en prenant en compte la topologie du réseau, l’infrastructure et les coûts. Le pTracker reprend ensuite la main et choisit des pairs actifs et en renvoie la liste à l’utilisateur demandeur. Le pTracker est exécuté par un client P2P comme BitTorrent, alors que l’iTracker est, lui, pris en charge par des tiers, des FAI ou des réseaux P2P de confiance.

60 % de mieux D’après les premiers tests effectués par les promoteurs du projet, les débits sont sensiblement améliorés. Dans certains cas, on parle de vitesse accrue de 60 %. Mais il reste à voir à quoi cette technologie sera utilisée, si elle est viable au quotidien… Bref, il ne lui reste plus qu’à faire ses preuves.

PC Update

I 35


Dossier

Les différents réseaux et les outils liés Les protocoles/ réseaux et les logiciels associés BitTorrent : ABC, AllPeers, Azureus, BitComet, BitLord, BitSpirit, BitTornado, BitTorrent, Burst!, Deluge, FlashGet, G3 Torrent, Halite, KTorrent, LimeWire, MLDonkey, Opera, QTorrent, rTorrent, TorrentFlux, Transmission, Tribler, µTorrent, Thunder. Direct Connect : DC++, NeoModus Direct Connect, SababaDC, BCDC++, ApexDC++, StrongDC++. eDonkey : aMule, eMule, eMule Plus, FlashGet, Hydranode, iMesh, Jubster, lMule, Lphant, MLDonkey, Morpheus, Pruna, xMule. FastTrack : giFT, Grokster, iMesh, Kazaa, Kazaa Lite, KCeasy, Mammoth, MLDonkey, Poisoned. Freenet : Freenet. La nouvelle coqueluche du téléchargement, BitTorrent adopte une philosophie et un fonctionnement très communautaire : plus on partage, plus on reçoit.

L

’univers du P2P se divise en plusieurs réseaux, indépendants les uns des autres. Par exemple, si vous ne trouvez pas ce que vous cherchez sur le réseau BitTorrent, il peut être judicieux d’aller regarder du côté du réseau FastTrack ou eDonkey, par exemple. Les réseaux sont cloisonnés et ne partagent pas forcément les mêmes contenus. Avant de rentrer dans le vif du sujet, un petit point sur les performances.

Beaucoup se demandent si le téléchargement en P2P est rapide ou non. Si les ancêtres comme Napster étaient abominablement lents, les développeurs des applications P2P se sont fait fort de résoudre une équation insoluble : comment augmenter les vitesses de téléchargement alors que le P2P dépend de la vitesse d’upload des utilisateurs et que cette vitesse est habituellement très lente. Aujourd’hui, une connexion bien para-

Soulseek : Soulseek Gnutella : Acquisition, BearShare, Cabos, FrostWire, Gnucleus, Grokster, gtk-gnutella, iMesh, Kiwi Alpha, LimeWire, MLDonkey, Morpheus, Poisoned, Swapper, XoloX. Kad Network : aMule, eMule, MLDonkey.

métrée permet d’atteindre des téléchargements à plusieurs centaines de ko par seconde. C’est confortable, mais beaucoup moins rapide que des newsgroups qui exploitent toute la bande passante disponible et qui, sur une connexion ADSL Orange de base (8 mégaoctets), permettent de télécharger à près de 1 000 ko/s. Pour le P2P, la vitesse dépendra de la source, de sa rareté ou non et du paramétrage de votre routeur si vous êtes sous eMule entre autres.

BitTorrent A tout seigneur tout honneur. BitTorrent est incontestablement LA star du téléchargement sur la toile. Ce protocole (puisqu’il s’agit d’un protocole et d’un client) a été créé en 2001 par Bram Cohen et a été utilisé pour la première fois en juillet 2001. Très intéressant Soulseek permet de rentrer en contact avec les autres utilisateurs, de voir leurs préférences, de trouver des gens ayant les mêmes centres d’intérêt.

36

I PC Update


Le P2P c’est une chose, mais quand on parle de débits rien ne surclasse les newsgroups. Manque de pot, eux aussi sont sur la sellette et Free condamne l’accès à beaucoup d’entre eux. Ha la censure !

Configurer son routeur pour eMule

Pour partager un fichier, un pair crée d’abord un fichier appelé Torrent. Ce dernier contient des métadonnées décrivant les fichiers à partager et à propos du tracker, l’ordinateur qui coordonne la distribution du fichier. Pour télécharger le fichier en question, l’utilisateur final devra télécharger le fichier Torrent qui lui dira quels fichiers doivent être récupérés et où. Le Torrent est régulièrement mis à jour et contient, pour mener à bien sa mission de mise en relation, la liste des pairs téléchargeant le fichier, le nom du fichier, les informations de contrôle d’intégrité et l’IP du tracker.

désormais célèbre Pirate Bay, sont dans le collimateur de la justice. Combien de temps tiendront-ils ?? Mystère. Outre The Pirate Bay, on trouve aussi des fichiers Torrent sur des sites comme Mini Nova, Torrent Tracker France, Torrentz, Torrent Search, etc. Demandez à votre meilleur ami, Google, il vous donnera l’adresse de tous ces sites. A condition qu’ils n’aient pas fermé par peur des représailles judiciaires. BitTorrent n’est pas le seul logiciel à utiliser le protocole BitTorrent. D’autres outils plus légers, plus simples et plus populaires lui ravissent parfois la vedette. Citons entre autres Azureus et µTorrent.

eMule est populaire et pratique à l’usage. Oui mais. Vous avez remarqué à quel point le fait d’être en Low ID est pénalisant ? Lorsque vous êtes en High ID, ça signifie que le port du routeur est ouvert. A l’inverse, une Low ID implique que le port choisi est bloqué ou rendu inaccessible par un firewall ou autres. Le fait d’être en Low ID n’empêche pas de recevoir ou d’envoyer des fichiers, mais limite sérieusement les possibilités. Si vous êtes en Low ID, il faudra certainement paramétrer les ports du routeur afin de router les ports UDP et TCP utilisés par votre eMule. Si vous ne savez pas comment faire pour passer en High ID et donc configurer votre routeur ou votre box, il existe plusieurs sites Web spécialisés qui sont de vraies mines d’or. Citons entre autres http://config.emule-inside.net et http://www.p2pfr. com. Le premier a quelque chose d’impressionnant avec la multitude de tutoriels sur la configuration de l’ordinateur ou, encore plus exhaustive, l’incroyable liste de routeurs dont la configuration est détaillée et illustrée. Bien sûr, les Livebox et autres Freebox font partie de ceux-là. Le second est une mine d’or sur le Peer 2 Peer en général. Là, vous trouverez bien plus que des exemples de configuration de votre routeur pour eMule, il y a des tonnes d’informations sur la plupart des réseaux P2P et sur les logiciels utilisés… une vraie encyclopédie du P2P.

FastTrack Si vous ne connaissez pas FastTrack, le réseau, vous connaissez certainement des logiciels comme Kazaa, Grokster (arrêté maintenant), iMesh… Ça y est, vous vous souvenez ? Ce réseau très courant est parfois appelé P2P de seconde génération et utilise des superpeers pour pallier une faille

La particularité de BitTorrent est de faire de chaque téléchargeur un serveur. Dans la terminologie BitTorrent, on distingue les peers (pairs, qui téléchargent le fichier) et les seeds qui, eux, possèdent l’intégralité du fichier. Les peers et les seeds partageant le même Torrent forment un swarm, c’est-à-dire un essaim. Vu que chaque téléchargeur devient un serveur, plus un fichier est demandé, plus il est facile à télécharger et plus il est téléchargé, plus il est facilement accessible. A l’inverse des autres protocoles qui saturent lorsque la demande est trop forte sur un fichier. D’où l’aisance de BitTorrent pour traiter le téléchargement de fichiers de grande taille. Le concept est même poussé encore plus loin, BitTorrent ayant un système de « récompense » qui fait que plus on partage, plus on reçoit. Le hic avec BitTorrent, c’est qu’il faut d’abord trouver les fichiers Torrent. Et que les sites Web référençant les fichiers Torrent illégaux, comme le Très populaire eMule demande une bonne configuration initiale pour utiliser au mieux le plein potentiel du réseau.

PC Update

I 37


Dossier Regarder des séries TV en « live » via le P2P avec PPStream

Dommage qu’il soit en chinois !!! La diffusion de contenu TV en P2P est très pratique et permet de profiter d’un bouquet de chaînes incomparable.

Peu d’Européens connaissent… et pour cause, le site est en chinois. Et le logiciel aussi. Quelle tristesse. Pauvre de nous, Européens. Trêve de lamentations, PPStream est un outil permettant de regarder des dizaines de programmes TV, de séries, de feuilletons, de dessins animés, de matchs de foot, etc. via une interface unifiée et en utilisant le réseau P2P. Le concept est grandiose et même si les menus sont en chinois, on arrive quand même à retrouver vaille que vaille des noms connus comme X-Files, CSI Las Vegas, Friends, etc. Bref, on se débrouille et comme les séries sont diffusées en VO en Asie, on peut regarder ses feuilletons préférés en anglais avec comme désagrément un sous-titre chinois que l’on oublie vite. Des versions traduites en anglais et en français de l’interface se trouvent sans trop de difficultés… mais les chaînes restent en mandarin. Attention toutefois, ce logiciel semble ne pas être parfaitement sûr à en croire Symantec, notamment le contrôle ActiveX du programme qui est enclin aux failles de type : « buffer overflow » qui permettrait l’exécution de codes malicieux par un vilain pirate malveillant. Mais bon, le but n’est pas tant de vous faire télécharger un logiciel en mandarin que de mettre l’accent sur une utilisation très sympa et originale du protocole P2P qui pourrait, pourquoi pas, être adaptée à nos contrées occidentales (et avec Dr House s’il vous plaît… ça manque cruellement sur PPS TV). Il existe bien quelques autres utilitaires de diffusion de contenus TV streamés via le P2P comme TVU Player qui propose de regarder en live beaucoup de chaînes de TV, mais là encore, avec une majorité de chaînes chinoises, Live Station qui diffuse du contenu en VC-1 et lié à Microsoft, et d’autres, mais aucun n’est aussi abouti, complet et sympa que PPStream. L’avenir semble pourtant sourire à ce type de diffusion.

Une fois le routeur proprement configuré Emule est capable de rapatrier des fichiers à un bon rythme.

du système décentralisé sur lequel il est basé : l’indexation est rendue difficile par le manque de hiérarchie. Ainsi, les superpeers qui ont des machines puissantes et une grosse bande passante assurent le travail d’indexation. Le vrai problème du réseau FastTrack est sa facilité déconcertante à laisser passer les fichiers corrompus. Il est en effet dépourvu de système de détection de ces derniers. D’où une utilisation de cette faille par la RIAA, notamment, qui en a profité pour inonder le réseau FastTrack de fichiers aussi gros que corrompus pour écoeurer les téléchargeurs éventuels.

eDonkey Donkey en anglais signifie âne… de l’âne à la mule, il n’y a qu’un pas. La mule… ça vous parle ? Oui, eMule. Ce logiciel est aussi connu que populaire et répandu. Signalons que dans ses versions les plus récentes, eMule est aussi capable d’utiliser un autre réseau P2P : Kademlia (avec une architecture complètement décentralisée). Très populaire, eMule a aussi une

particularité : celle des ID. La plupart du temps, l’utilisateur débute en Low ID. Il n’est pas prioritaire et télécharge à des vitesses d’escargot. Mais après une configuration correcte des ports de votre routeur ou de votre box, vous pourrez passer en High ID et profiter de vitesses de téléchargement très nettement améliorées. Une mule bien dressée, ça bosse dur.

Freenet Le réseau Freenet se veut être le réseau de la liberté de parole et de la protection de l’anonymat. Créé par un dénommé Ian Clarke, ce protocole-

Bien que disponible en alphabet occidental TUV n’offre pas un contenu aussi riche que PPS. Mais pour goûter à la TV via P2P c’est déjà un bon début. Là encore, le nombre de chaînes chinoises étonne. Tous les logiciels de P2P requièrent une bonne configuration de votre routeur ou de votre « box » pour pouvoir fonctionner de façon optimale.

38

I PC Update


Xolox est un client Gnutella aussi simple que léger permettant l’échange de fichiers multimédia.

ou de productions de musique personnelles. Soulseek bénéficie aussi de fonction de chat ou de chatrooms privées ou publiques permettant à divers artistes en mal d’échange ou de conseil de se parler librement. Autre point original, la « wishlist » permet de stocker vos critères de recherche sous la forme d’une liste qui sera régulièrement exécutée et si d’aventure, l’un des membres du réseau avait le fichier de vos rêves, vous en seriez prévenu. L’initiative est intéressante, sensée et nous vient d’un ancien programmeur de Napster.

Gnutella et Gnutella2 Les réseaux Gnutella font partie des favoris des internautes. A leurs débuts, ils étaient purement décentralisés, réseau utilise des clés de cryptage pour que seul le pair téléchargeant le fichier puisse le lire alors que les fichiers lors de leur téléchargement transitent par beaucoup de pairs tiers afin de brouiller les pistes et de rendre le traçage du téléchargeur aussi ardu que possible. Crypté, anonyme, le réseau Freenet reste complexe à utiliser et l’énergie déployée pour brouiller les pistes demande beaucoup de ressources en bande passante notamment, ce qui le rend assez mal adapté au téléchargement de gros fichiers multimédias.

Soulseek Ce réseau se veut respectueux des droits d’auteur (sur le papier) et mise plus sur l’échange de fichiers d’auteurs

LimeWire est un client Gnutella assez réputé qui bénéficie d’options de filtrage par catégorie assez bien fichues.

c’est-à-dire que chaque pair jouait le rôle de fournisseur et que chaque recherche était faite sur un maximum de pairs, ce qui risquait de prendre des heures et d’engorger inutilement le réseau. Donc, les réseaux Gnutella ont évolué en réseaux à structure hybride en introduisant eux aussi la notion d’ultrapeers. Les ultrapeers sont les grosses machines du réseau, puissantes et reliées à une solide connexion Internet. Ils ont en charge la transmission des requêtes aux autres pairs et aux autres ultrapeers. Pour optimiser le fonctionnement du réseau Gnutella, la fonction Guess a été introduite (Guess pour Gnutella UDP Extension for Scalable Research) : elle vise à limiter le nombre d’ultrapeers à interroger pour réduire les besoins en bande passante.

PC Update

I 39


Dossier

Le Peer 2 Peer légal existe bel et bien : l’exemple Nine Inch Nails

T

élécharger tue les artistes. C’est à cause de vous, horribles pirates sans scrupule que les intermittents du spectacle sont miséreux et que la Fnac est au bord du gouffre. Finalement, c’est un peu comme le refrain sur les jeux vidéo qui sont responsables de toute la misère intellectuelle des ados d’aujourd’hui. Il y a 20 ans, c’étaient les BD et encore avant… le rock’n’roll. Comme quoi, un bouc émissaire est toujours le bienvenu lorsqu’il s’agit de justifier l’injustifiable. Donc télécharger tuerait les artistes. Ben non. Pas forcément. Surpris ? C’est vrai qu’en affirmant cela nous ramons à contre-courant. Mais Saint Trent Reznor est de notre côté. Ceux qui ne connaissent pas ont déjà (peut-être) entendu parler de Nine Inch Nails, son groupe de musique douce… Et pour les autres, plus geeks que musiciens, sachez qu’il a composé l’intégralité de la bande-son de Quake en 1996 (le logo de son groupe est d’ailleurs présent sur certaines armes du jeu), ainsi que la musique d’intro de Doom 3. Ça vous parle ?

Sur P2P, mais gros succès commercial Pourquoi lui ? Parce que la sortie de son dernier album a été l’occasion de mettre un grand coup de pied dans la fourmilière. Las du circuit de distribution habituel, Trent Reznor, le leader du groupe, a décidé de publier son dernier album via les réseaux BitTorrent. Incroyable ! Suicidaire ? Même pas. En plus, la publication n’a rien eu d’un simple « post » sauvage de mauvais fichiers sur le réseau. Non, les 9 premiers titres sont encodés en 320 kbps, sans DRM et accompagnés d’un booklet en PDF de 40 pages avec des illustrations de l’album. Comme si

Malgré la mise à disposition d’une partie de la musique sur PirateBay et mininova, Nine Inch nails vend en ligne à des prix imbattables. Les éditions ultra luxueuses sont elles déjà en rupture de stock… le P2P pourrait donc ne pas nuire à la création et à la rentabilité artistique ?

on achetait le CD. Outre la diffusion gratuite, le groupe a aussi mis en vente pour 5 $ les 36 titres de l’album (plus le booklet) ; pour 10 $, il propose deux CD audio avec une jaquette, comme ceux du commerce. Il existe aussi deux versions Deluxe (une à 75 $ et l’autre à 300 $). Le résultat de l’opération : en moins de deux jours, les 2 500 exemplaires de la version Deluxe à 300 $ sont vendus. Le 13 mars, le groupe publiait les premiers chiffres de vente : 780 000 transactions enregistrées et 1,6 million de dollars encaissés. Pour un album en partie disponible sur les réseaux P2P, c’est plutôt pas mal, non ? Et semble démontrer que si l’artiste a un public, du talent et de l’audace, ça peut marcher. Les résidus de reality shows auront encore peut-être

Gratuit ne veut pas dire pourri. NiN propose de télécharger des MP3 à 320 Kbps et un livret PDF d’illustrations.

40

I PC Update

besoin du marketing de quelques gros labels pour vendre… à défaut de talent. Les gens originaux, talentueux semblent pouvoir s’en passer. Et à 10 $, le double CD de NiN (un peu plus de 6,50 € au cours actuel du dollar) est encore quatre fois moins cher qu’un album du même groupe vendu chez un grand disquaire français (l’agitateur d’idées…). Comme quoi, la musique peut aussi être bon marché, de bonne qualité et trouver son public.

Le prix de la musique Pour l’anecdote, lorsque les rayons des disquaires ont remplacé la cassette par le CD, le prix de la musique a presque doublé. Un album sur cassette coûtait dans les 50 francs et un CD plus de 100 francs. A l’époque, les promoteurs des nouveaux supports, gros labels et distributeurs en tête, assuraient que le surcoût était lié à l’adoption de la technologie et que le prix allait baisser. On voyait même des reportages assurant que le CD était un support numérique indestructible. Bref, une pelletée de mensonges éhontés et le prix n’a jamais vraiment baissé. Peut-être que si les CD étaient moins chers en magasins, les gens auraient moins envie de pirater ? Rendre le piratage financièrement inintéressant peut aussi être une solution à envisager… pourquoi l’utilisateur et client doit-il seul supporter tout le poids de l’effort ?


Dossier

Le point sur la loi

N

ous n’avons cessé de le répéter dans ce dossier, les réseaux P2P, lorsqu’ils ont pour but l’échange illicite de fichiers, sont dans le collimateur des autorités. Les maisons de disques poussent, les éditeurs de logiciels ou de films rament dans le même sens. Et au bout du compte, le gouvernement semble leur offrir une oreille attentive. Si on a longtemps vécu dans une bulle de flou protégeant bon gré mal gré les internautes, l’étau se resserre.

Dadvsi et DRM Les choses ont commencé à bouger avec la fameuse loi Dadvsi de juin 2006. Cette loi, premier échelon de la riposte administrative au piratage de contenus, prévoit des amendes allant jusqu’à 300 000 euros et 3 ans de prison pour ceux qui éditeraient un logiciel destiné à casser les clés de cryptage visant à protéger les oeuvres, les tristement célèbres DRM. Tristement célèbres car leur usage a fait tourner l’industrie de la musique, de la fête à l’ambiance pénitentiaire. Certains CD ne pouvaient pas être lus dans un PC, d’autres morceaux étaient non téléchargeables dans tel ou tel baladeur, illisibles sur telle ou telle plate-forme, etc. Bref, comme l’écrit fort justement l’auteur d’un blog antiDRM, cette mesure de protection agit envers le client comme s’il était déjà un pirate. Alors que ma pauvre mère qui achèterait un CD aurait bien du mal

à le copier et à le diffuser sur eMule. Pas grave, ma bonne dame, vous êtes un pirate potentiel, alors on vous punit. Bref, du grand vide juridique, les DRM ont fait passer le monde de l’audiovisuel dans l’ère, guère plus réjouissante, du « tous coupables ».

Tous coupables A ceci, il convient d’ajouter la taxation des supports de stockage à laquelle nous sommes tous soumis lorsque nous achetons un CD, un DVD, un disque dur, une clé USB. Celle-ci renforce encore ce sentiment de punition anticipée a priori très peu compatible avec l’esprit de nos sociétés démocratiques. La copie privée existe encore bel et bien, mais en contrepartie, on paie une taxe destinée à financer les pertes éventuelles subies par l’industrie de la production audiovisuelle. Sur le papier, ça semble fair-play, même si celui qui achète un CD sans avoir l’intention de copier de la musique a l’impression d’être puni pour un délit qu’il n’a pas commis. Les sommes récoltées via cette taxe sont réparties entre les sociétés d’auteurs, d’interprètes et de production. La présence de ces derniers dans l’équation fait bondir les détracteurs de cette taxe : ok pour financer les artistes, mais payer une redevance à des sociétés privées, non.

La licence globale

Les DRM empêchent de profiter de sa musique (légalement achetée) sur les supports de son choix. Très décriés ces verrous numériques semblent en recul.

42

I PC Update

Un projet de loi aurait pu résoudre le problème. Il a eu le mérite d’apporter une solution originale. C’était la fameuse licence globale. Notons d’ailleurs que cette mesure faisait partie du projet de loi Dadvsi, mais face à la fronde des lobbies, elle fut abandonnée. En quoi consistait-elle ? A permettre l’échange de contenus via Internet (sauf pour les logiciels) moyennant une taxe forfaitaire, une sorte de redevance, payée au moment de la souscription d’un abonnement Internet. En bref, on paie pour avoir le droit d’échanger de la musique et des films et les sommes vont dans la poche des artistes. Le projet avait de nombreux adhérents… mais fut abandonné.

Tout support de stockage est frappé d’une taxe censée contrebalancer le droit à la copie privée. OK. Mais on paie même si on ne compte pas copier de musique.

Mission Olivennes Le dernier chapitre de la législation sur le piratage a été ouvert fin 2007. Notre président fraîchement élu a confié à Denis Olivennes, patron de la Fnac, la rédaction d’un rapport pour civiliser l’Internet. Cap est mis sur la répression, avec notamment l’introduction de la notion de riposte graduée (on notera le vocabulaire militaire) à l’encontre des internautes téléchargeant illégalement. Les FAI enverraient un mail d’avertissement à l’internaute et auraient la possibilité de couper provisoirement ou définitivement la ligne du récalcitrant. Une liste noire des internautes délinquants pourrait aussi être créée, ce qui fait bondir les associations de consommateurs qui elles, demandent plus de transparence dans le prix des disques et dans la répartition des sommes perçues lors de l’achat. L’avenir du téléchargement illégal semble sombre…

La justice est aveugle, mais pas les lobbies. L’influence de l’industrie du disque dans le débat légal concernant le téléchargement illégal est impressionnant.


Dossier

Spécial cartes Thomas Olivaux

3D

40 GPU sur 3 générations

face à face !

Changer de carte graphique, ça vous dit ? Que faut-il acheter ? Que vaut votre carte actuelle face aux modèles les plus récents ? Le gain dans les jeux sera-t-il sensible ? Pour y répondre, nous avons comparé toutes les cartes 3D des trois dernières générations. 44

I PC Update


Offrant des performances assez bonnes en son temps (presque au niveau d’une 7800 GT), la X1900 XT peine beaucoup à faire tourner les jeux les plus récents si l’on dépasse 1 280 x 1 024.

D

epuis quelques années, bien que le marché ne soit dominé que par deux constructeurs seulement, le nombre de cartes graphiques a explosé et il est très facile de s’y perdre entre une GT par-ci, une Pro par-là. Nos très chères (dans tous les sens du terme) cartes sont d’autant plus difficiles à départager qu’elles sont régulièrement remplacées par de nouveaux modèles, mais il n’est pas toujours évident de savoir qui est le plus rapide de l’ancien haut de gamme ou du nouveau milieu de gamme et ainsi de suite ; à la fin de ce dossier, vous saurez qui est la carte la plus rapide entre une 7800 GTX et une 9600 GT, entre une X1800 XT et une HD3850, par exemple.

La puissance, entre autres Si la puissance de calcul 3D délivrée par une carte graphique est le critère de choix principal, en fonction de son prix bien entendu, nous sommes de plus en plus exigeants et une carte capable d’afficher correctement nos jeux favoris ne suffit plus. La contrainte de bruit est devenue un critère depuis longtemps déjà et en ces temps où il fait bon économiser de l’énergie, la consommation électrique des cartes en devient un, d’autant que les modè-

les les plus puissants sont devenus très g o u r mands. Les aptitudes à traiter la vidéo sont aussi des éléments de premier ordre pour les passionnés de home cinéma, les cartes les plus récentes étant non seulement capables d’améliorer la qualité de l’image via divers traitements vidéo mais surtout d’accélérer le décodage des vidéos HD elles-mêmes afin de soulager votre processeur ; les sorties vidéo se multiplient, de plus en plus de cartes proposent une prise en charge HDCP, nous allons bien sûr parler de tout cela. Enfin, bien que ça sorte du contexte de notre dossier, le bundle d’une carte est un dernier critère de choix, ces derniers étant plus ou moins riches. Vous pourrez craquer pour un jeu ou pour un

adaptateur DVI/HDMI, par exemple. Nous parlerons enfin de l’importance d’avoir un CPU et une quantité de mémoire adaptée à la carte graphique de vos rêves, l’éternelle question de l’équilibre d’une configuration. Rassurez-vous, il y a une grande liberté de choix à ce niveau, il s’agit surtout de ne pas faire le grand écart en installant, par exemple, une GeForce 8800 Ultra sur une machine avec un Celeron à 2,66 GHz et 512 Mo de mémoire. Encore une fois, les nombreux graphiques de performances seront là pour permettre d’éclaircir ce point. Partons dès à présent à la découverte des gammes AMD/ATi et nVidia, ce qui, en l’espace d’à peine 3 ans, représente déjà plus de 70 modèles ! Nous intégrerons également quelques grandes références plus âgées à titre de comparaison.

La GeForce 7600 GS, déjà peu performante à l’époque (équivalent d’une 6600 GT) est définitivement trop faible pour jouer aux titres de 2008.

Une bonne GeForce 8800 Ultra overclockée, comme cette monstrueuse Leadtek Leviathan sortie il y a presque un an, reste sans concurrence aujourd’hui ! Seule la 9800 GX2 parvient à la dépasser.

Le R600 d’AMD (HD2900) est très performant mais il n’est pas capable de surpasser les G80 et G92 de nVidia en conditions réelles (jeux).

PC Update

I 45


Dossier

Les cartes AMD/ATi N

ée au Canada en 1985, la société ATi a été rachetée par le géant du semi-conducteur AMD en juillet 2006. Elle fut parmi les pionnières de la 3D grand public en sortant dès 1998 la Rage Pro, une carte graphique incluant quelques fonctions 3D et très performante à l’époque mais c’est en avril 2000 que la marque Radeon est apparue afin de concurrencer les nouvelles GeForce du (alors) jeune concurrent nVidia. Les premiers modèles (Radeon « tout court ») suivis des Radeon 7500 et 8500 n’étaient pas exceptionnels mais la troisième génération de Radeon, sortie en 2002 fut une véritable révolution. Alors que la firme au caméléon enchaînait les succès, ATi proposait les Radeon 9500/9700 et, un peu plus tard, les 9600/9800, les premières cartes DirectX 9 du marché et très performantes qui plus est. La réussite des Radeon 9000 fut d’autant plus importante que la GeForce FX (GeForce 5), premier essai DX9 nVidia, fut une vraie calamité. Au printemps 2004, ATi sortit sa quatrième génération de cartes par l’introduction des X800 Pro et X800 XT, suivies de nombreuses déclinaisons. Ces modèles étaient globalement très performants, mais grâce à une GeForce 6, elle aussi très intéressante, la bataille était serrée ! Si le milieu de gamme était clairement dominé par la concurrence, qui ne s’est pas posé la question, en haut de gamme, du choix entre une X800 et une 6800 ?

En 2005, nous achetions une Radeon X800 XL pour avoir mieux qu’une GeForce 6600 GT pour à peine plus cher. En 2008, le constat est le même pour ces deux cartes : trop peu puissantes pour jouer.

Octobre 2005 : Radeon X1000… Le monde du hardware PC est impitoyable, nous le savons tous. Il évolue sans cesse, pour notre plus grand bonheur (et non celui de notre portefeuille), mais pour les constructeurs, ça signifie de se décarcasser pour faire mieux en permanence, sous peine de disparaître ! Après des Radeon 9000 au top et des Radeon X800 très correctes, il fallait réagir à la GeForce 7 de nVidia, très performante. C’est dans ce but que sont sorties les Radeon X1000. Constitué de 321 millions de transistors, le R520 reprend le

Si la Radeon HD2600 Pro n’est vraiment pas à l’aise en 3D, elle offre de très bonnes prestations vidéo grâce à son moteur UVD. C’est une solution peu onéreuse (moins de 100 euros) pour un PC home cinéma prêt pour la full HD.

46

I PC Update

Les Radeon X1600 n’ont jamais été d’excellents modèles vis-à-vis de la concurrence, elles sont aujourd’hui trop légères pour jouer à moins de se contenter de petites résolutions.

principe de fonctionnement général de son prédécesseur mais ATi a fait la part belle aux optimisations. Les fonctionnalités ont progressé, avec une profondeur des couleurs passant de 24 à 32bits pour le calcul des pixels shaders et la version 3 de Pixel Shader est enfin supportée. Le HDR est amélioré avec la possibilité désormais d’effectuer du blending sur des textures FP16 telles qu’elles sont utilisées dans plusieurs jeux depuis Far Cry ; les X1000 sont d’ailleurs les premières cartes à supporter l’antialiasing en même temps que le rendu HDR. Le nombre d’unités de texturing et de pixels shaders n’évolue pas depuis la X800 (16 de chaque, mais


leur fonctionnement a été amélioré !) mais la partie vertex shaders grimpe de six à huit. La plus grosse innovation des X1000 se situe au niveau de la gestion mémoire qui a inauguré le « ring bus». ATi a imaginé une sorte de bus périphérique pour la mémoire située autour du processeur graphique constitué de plusieurs contrôleurs de mémoire. Au total, le bus permet de faire transiter 256 bits de mémoire mais sa conception le rend plus efficace que les autres contrôleurs 256 bits de l’époque. Les modèles sortis dès octobre 2005 sont les X1800 XL et XT, en haut de gamme. ATi a ensuite décliné cette série avec les X1600 et X1300 en milieu et entrée de gamme avec des versions allégées du R520 comprenant moins d’unités de calcul. Face à des difficultés à monter en fréquence et à concurrencer efficacement nVidia qui vient de sortir sa 7800 GTX 512, ATi sort dès janvier 2006 les Radeon X1900 dont la puce R580 embarque cette foisci 48 unités de traitement des pixels shaders au lieu de 16. Inutile de dire que les performances font un bon en avant (sans nécessiter plus de fréquence) d’autant que les gros modèles passent à 512 Mo de mémoire avec des fréquences plutôt élevées (plus de 700 MHz réels, soit plus de 1 400 MHz effectifs, DDR oblige). La série X1000 a duré assez longtemps, les produits n’étant remplacés que depuis fin 2007. Pour renouveler un peu sa gamme, ATi (société rachetée entre-temps par AMD) a sorti les X1650 et X1950 bénéficiant de quelques améliorations et de performances revues à la hausse. Si la X1950 XTX a inauguré la GDDR4 avec une fréquence inouïe d’un gigahertz, ce sont surtout les Radeon X1650 XT et X1950 Pro qui ont redonné du souffle à ATi avec un milieu de gamme compétitif face aux GeForce.

Carte

GPU

Fréquence GPU

Quantité de mémoire

Bus mémoire

Fréquence mémoire

DirectX

Radeon X1050 « type 1 »

RV370

400 MHz

128 Mo

128 bits

250 MHz

DX 9.0b

Radeon X1050 « type 2 »

RV370

325 MHz

128 Mo

64 bits

333 MHz

DX 9.0b

Radeon X1050 « type 3 »

RV370

400 MHz

256 Mo

128 bits

333 MHz

DX 9.0b

Radeon X1300 HM

RV515

450 MHz

16 ou 32 Mo

64 bits

500 MHz

DX 9.0c

Radeon X1300

RV515

450 MHz

128 ou 256 Mo

128 bits (parfois 64 bits !!!)

250 MHz

DX 9.0c

Radeon X1300 Pro

RV515

600 MHz

128 ou 256 Mo

128 bits

400 MHz

DX 9.0c

Radeon X1300 XT

RV530

500 MHz

128 ou 256 Mo

128 bits

400 MHz

DX 9.0c

Radeon X1550

RV515

550 MHz

256 ou 512 Mo

128 bits

400 MHz

DX 9.0c

Radeon X1600 Pro

RV530

500 MHz

128 ou 256 Mo

128 bits

390 MHz

DX 9.0c

Radeon X1600 XT

RV530

590 MHz

128 ou 256 Mo

128 bits

690 MHz

DX 9.0c

Radeon X1650 Pro

RV535

600 MHz

128 ou 256 Mo

128 bits

700 MHz

DX 9.0c

Radeon X1650 GT

RV560 ??

400 MHz

128 ou 256 Mo

128 bits

Libre ! (souvent 600 MHz)

DX 9.0c

Radeon X1650 XT

RV560

575 MHz

128 ou 256 Mo

128 bits

675 MHz

DX 9.0c

Radeon X1800 GTO

R520LE

500 MHz

256 Mo

256 bits

500 MHz

DX 9.0c

Radeon X1800 XL

R520

500 MHz

256 Mo

256 bits

500 MHz

DX 9.0c

Radeon X1800 XT

R520

625 MHz

256 Mo

256 bits

750 MHz

DX 9.0c

Radeon X1900 GT

R580LE

575 MHz

256 Mo

256 bits

600 MHz

DX 9.0c

Radeon X1900 XT

R580

625 MHz

256 ou 512 Mo

256 bits

725 MHz

DX 9.0c

Radeon X1900 XTX

R580

650 MHz

512 Mo

256 bits

775 MHz

DX 9.0c

Radeon X1950 GT

RV570LE

500 MHz

256 Mo

256 bits

600 MHz

DX 9.0c

Radeon X1950 Pro

RV570

575 MHz

256 Mo

256 bits

690 MHz

DX 9.0c

Radeon X1950 XTX

R580+

650 MHz

512 Mo

256 bits

1 GHz

DX 9.0c

GPU

Fréquence GPU

Quantité de mémoire

Bus mémoire

Fréquence mémoire

DirectX

Radeon X1000

Carte Radeon HD2400 Pro

RV610

525 MHz

256 Mo

64 bits

400 MHz

DX 10

Radeon HD2400 XT

RV610

700 MHz

256 Mo

64 bits

800 MHz

DX 10

Radeon HD2600 Pro

RV630

600 MHz

256 Mo

128 bits

400 MHz

DX 10

Radeon HD2600 XT « GDDR3 »

RV630

800 MHz

256 Mo

128 bits

700 MHz

DX 10

Radeon HD2600 XT « GDDR4 »

RV630

800 MHz

256 Mo

128 bits

1,1 GHz

DX 10

Radeon HD2900 GT

R600

600 MHz

256 Mo

256 bits

800 MHz

DX 10

Radeon HD2900 XT

R600

742 MHz

512 Mo

512 bits

828 MHz

DX 10

Radeon HD2000

Carte

GPU

Fréquence GPU

Quantité de mémoire

Bus Fréquence mémoire mémoire

DirectX

Radeon HD3450

RV620

600 MHz

256 Mo

64 bits

400 ou 500 MHz

DX 10.1

Radeon HD3470

RV620

800 MHz

256 ou 512 Mo

64 bits

900 MHz

DX 10.1

…2007 : Radeon HD2000 HD3000

Radeon HD3650

RV635

725 MHz

256 Mo

128 bits

800 MHz

DX 10.1

Alors que nVidia a sorti fin 2008 la GeForce 8800, AMD a attendu mai 2007 pour dévoiler la première Radeon de la série 2000, la lettre X ayant été remplacée par les lettres HD en raison de ses capacités accrues en

Radeon HD3850

RV670

670 MHz

256 ou 512 Mo

256 bits

830 MHz

DX 10.1

Radeon HD3870 « GDDR3 »

RV670

775 MHz

512 Mo

256 bits

900 MHz

DX 10.1

Radeon HD3870 « GDDR4 »

RV670

775 MHz

512 Mo

256 bits

1,125 GHz

DX 10.1

Radeon HD3870 X2

RV670 x2

825 MHz

512 Mo

256 bits

900 MHz

DX 10.1

Radeon HD3000

PC Update

I 47


Dossier

La X1950 Pro est clairement dépassée elle aussi, mais tant que vous jouez sur un 19” et que vous n’exigez pas l’antialiasing plein écran, elle s’en sort encore correctement.

Depuis la sortie récente de la 9600 GT, la HD3850 a perdu de l’intérêt, mais elle reste une très bonne carte de milieu de gamme, à préférer en version 512 Mo.

matière de traitement vidéo. Le haut de gamme est toujours le modèle qui sort en premier et permet d’évaluer les performances d’une nouvelle architecture, vu que les déclinaisons milieu et entrée de gamme ne sont que des versions light du même GPU. Le R600 fait office de monstre avec ses 600 millions de transistors, mais à y regarder de plus près, il s’agit toujours d’une (sensible) évolution de l’architecture

introduite par ATi avec les Radeon 9700 ! Le nombre d’unités de calcul passe de 48 à 64 avec une souplesse accrue qui permet à AMD de parler d’architecture superscalaire comme nVidia depuis l’arrivée des GeForce 8800. Le ring bus mémoire introduit avec les Radeon X1000 est amélioré et passe ici à 512 bits au lieu de 256 (et ce, dans les deux sens, il faut le préciser, soit un équivalent de 1 024 bits au lieu de 512). Bien sûr, autre nouveauté de premier ordre, le R600 est le premier GPU DirectX 10 d’AMD, l’API étant sortie début 2007 avec Windows Vista. Malheureusement, l’architecture AMD étant très performante,

elle ne permet pas au constructeur de reprendre le leadership face aux plus rapides GeForce 8800, surtout que le modèle Ultra vient de débarquer. Malgré un prix adapté en conséquence (face aux GeForce 8800 GTS), la Radeon HD2900 XT ne trouve pas son public et se vend mal. AMD a décliné la gamme avec les Radeon HD2400 (Pro/XT) et HD2600 (Pro/ XT) qui, si elles intègrent un nouveau moteur vidéo très intéressant (UVD), sont très moyennes en 3D. Il aura fallu attendre fin 2007 pour que le constructeur réagisse en proposant les premières Radeon HD3000 qui, bien qu’elles changent de nom, utilisent la même conception que les HD2000. A vrai dire, le RV670 qui équipe les HD3850 et HD3870 est gravé en 55 nm pour réduire les coûts de fabrication ainsi que la consommation électrique (et donc la température dégagée). Sachant que ce dernier n’a pas été bridé par rapport au R600 (toutes les unités sont là), les performances sont assez bonnes. Pas au point de dépasser nVidia tout en haut, mais de façon à frapper là où ça fait mal, le milieu de gamme, segment (150-200 euros) où nVidia est totalement absent puisqu’il n’y a rien entre la « faible » 8600 GTS (130 euros) et les puissantes 8800 GT (250 euros). Cerise sur le gâteau, AMD a profité de la sortie de ces cartes pour supporter en premier DirectX 10.1 (Shader Model 4.1) sorti récemment avec le service pack 1 de Windows Vista. Plus récemment, AMD a décliné les HD3000 avec des modèles d’entrée et de milieu de gamme peu intéressants (les HD3400 et HD3600) ainsi qu’une version surpuissante composée de deux RV670 en CrossFire, la HD3870 X2, dont le positionnement face à la 8800 Ultra n’est pas mauvais… mais les GeForce 9800 GTX arrivent !

A retenir • •

48

I PC Update

Les Radeon X1000 sont trop légères pour jouer en 2008, à moins de posséder une X1900 XT 512 Mo ou mieux Privilégiez la version 512 Mo GDDR4 de la HD3870

Si la HD2600 XT n’est pas un foudre de guerre, elle s’en sort déjà nettement mieux que la Pro et la version DDR4 équivaut à une 8600 GTS. C’est trop léger pour dépasser le 1 280 x 1 200, mais les jeux s’en sortent encore globalement bien.


Les cartes nVidia N

Vidia est l’exemple même de la success story à l’américaine, preuve qu’il en existe encore. Cette entreprise fondée en 1995 dans la Silicon Valley a connu le succès dès 1997 avec ses premières puces (Riva, Riva 128, TNT, TNT2) et domine le marché depuis lors, avec la première famille de GeForce sortie fin 1999. Alors que les GeForce 256 et GeForce DDR étaient totalement sans concurrence à l’époque (les 3DFX ne parvenaient pas à suivre), nVidia ne s’est pas arrêté là et a enchaîné dès le printemps 2000 par la présentation de la GeForce 2 GTS et, bien qu’elle fut sensiblement plus puissante que la première Radeon sortie à l’été 2000, nVidia a enfoncé le clou avec la GeForce 2 Ultra – 4 000 francs à l’époque, une 8800 Ultra à 6 ou 700 euros en 2007 n’a « rien » de choquant finalement – à l’automne 2000. Rien ne semble pouvoir arrêter nVidia. Au printemps 2001, malgré une tentative désespérée de 3DFX de revenir dans la course avec la Voodoo 4500, nVidia s’envole encore plus loin avec la GeForce 3, suivie à l’automne de la même année des GeForce 3 Ti (Ti200 et Ti500). Nous parlons d’une époque où, chez ATi comme nVidia, les gammes sont encore assez simples. Il n’y avait que deux GeForce de première génération, il y a eu quatre GeForce 2 (MX200, MX400, GTS, Ultra) et il n’y a que trois GeForce 3 (Ti200, « GeForce 3 », Ti500). La fin 2001 étant marquée par le retour d’ATi dans la course avec

Impossible de jouer avec une petite 8500 GT, mais c’est une bonne solution pour le home cinéma en fanless. Longtemps « référence » du milieu de gamme à défaut de mieux, la 8600 GTS a bien du mal à suivre dès qu’on dépasse 1 280 x 1 024 avec des filtres.

sa Radeon 8500, nVidia dévoile début 2002 sa quatrième (déjà !) génération de GeForce, une course effrénée que bien des passionnés n’arrivaient pas à suivre faute d’un portefeuille assez garni. Pourtant, à chaque génération, les progrès réalisés en termes de puissance 3D sont importants. Il y a eu trois GeForce 4 d’entrée de gamme (MX420, MX440, MX460) et trois GeForce 4 milieu/haut de gamme dont le best-seller Ti4200 et, plus chères, les Ti4400 et Ti4600 (cette dernière étant la première carte graphique du marché à embarquer 128 Mo de RAM).

DirectX 9, des débuts difficiles Première carte biGPU officielle, la 7950 GX2 fit un véritable flop. Ses performances sont encore d’un niveau satisfaisant pour jouer aujourd’hui, mais une bonne carte à 150/200 euros fera mieux en consommant moins.

Alors que nVidia régnait sans partage sur le marché des cartes graphiques depuis plusieurs années, malgré quelques tentatives d’ATi, la sortie de DirectX 9 fut

PC Update

I 51


Dossier 2004/2005, PCI-Express

la première passe difficile pour la firme américaine. Non seulement sa cinquième génération de GeForce, les GeForce FX compatibles DirectX 9, est arrivée très en retard début 2003, mais surtout

A retenir • • • • •

Malgré des performances honorables, les GeForce 6 sont globalement dépassées Les GeForce 7 ont bien du mal à assumer les derniers jeux, à moins de posséder les meilleurs modèles En 2008, évitez les 8800 256 et 320 Mo Toutes les 8800/9600/9800 sont compatibles HDCP Toutes les 9800 ont une prise HDMI

les Radeon 9700 (et 9500) d’ATi sorties plus d’un semestre avant se révélaient nettement plus rapides ! Pire, ATi prenait alors « une demi-génération » d’avance en présentant début 2003 les Radeon 9800 et 9600 (évolutions des 9700 et 9500), remettant une couche au passage. Les GeForce FX5800 (et 5600) furent rapidement « abandonnées », ne connaissant pas le succès des ventes de leurs aînées, au profit des GeForce FX5900 (et 5700) sensiblement plus performantes. Fin 2003, nVidia avait plus ou moins rattrapé son retard face à ATi, le combat entre les ultimes Radeon 9800 XT et GeForce FX 5950 Ultra étant à son paroxysme. Pour la première fois depuis des années, les deux constructeurs étaient au coude à coude durant de longs mois.

2004 marqua le début de la transition du bus AGP au bus PCI-Express, plus ou moins forcée par Intel avec ses plates-formes 915P et 925X. Le printemps 2004 fut aussi le théâtre d’un combat épique entre ATi et nVidia, ce dernier ayant réussi à sortir sa GeForce 6800 Ultra légèrement avant ATi et sa X800 XT. L’enjeu était de taille pour nVidia car son image avait pris un sacré coup à cause des GeForce FX tandis qu’ATi s’était taillé une belle réputation chez les gamers grâce aux Radeon 9000. D’un point de vue des performances, les GeForce 6800 n’étaient pas plus puissantes que les Radeon X800. Une Ultra équivalait une XT, une GT équivalait une Pro. Toutefois, nVidia connu un franc succès courant 2004 et 2005 grâce à la GeForce 6600 GT, une excellente carte de milieu de gamme vendue un peu moins de 200 euros à ses débuts et moins de 150 euros en fin de carrière, un segment primordial où ATi était très mauvais en raison de X600 Une carte du style de la 7300 GT, malgré ce que peut indiquer la boîte, ne peut permettre de jouer. Sorti d’usages bureautiques et multimédias, elle ne présente pas d’intérêt.

pitoyables (9600 rebadgées) et de X700 moins performantes (la X800 XL fut, lorsqu’elle sortit début 2005, une alternative sérieuse à la 6600 GT). D’autre part, la sortie de SLI en 2004, même si nous en avons toujours contesté la réelle utilité, a participé à l’image de nVidia auprès des joueurs, capable de délivrer des performances tout bonnement exceptionnelles et une solution d’upgrade intéressante.

GeForce 7, retour en force Carte de rêve en 2004, la 6800 GT ne fait plus très envie aujourd’hui. Si elle permet encore de lancer la majorité des jeux et d’y jouer en 1 280 x 1 024, les 22 et 24” réclament plus, sans compter qu’elle n’est pas DX 10.

52

I PC Update

Après une très bonne GeForce 6, nVidia a enchaîné à l’été 2005 sur une très bonne GeForce 7. Alors qu’ATi prenait du retard (le CrossFire fut présenté six mois après le SLI et la X1800 XT quatre mois après la 7800 GTX), nVidia enchaîna GeForce


GeForce 7

7800 GTX et 7800 GT. Nous arrivons là à la partie qui nous intéresse pour ce dossier, nous sommes justement trois générations en arrière et de nombreuses GeForce 7 équipent encore nos PC. Le G70 n’est qu’une évolution des GeForce 6. La fréquence ne bouge pas vraiment par rapport à avant d’ailleurs, la 7800 GTX tourne à 430 MHz contre 425 MHz pour une 6800 Ultra. Pourtant, les performances sont bel et bien là, ceci s’explique surtout grâce au passage de 16 à 24 pipelines de traitement des pixels et de 6 à 8 unités de vertex shading. Pour enfoncer ATi qui venait de présenter sa X1800 XT, nVidia sortit en novembre 2005 la GeForce 7800 GTX 512 qui, malgré son nom, n’est pas une simple GeForce 7800 GTX dont la quantité de mémoire aurait doublé. En effet, ses fréquences sont décuplées, le GPU passant de 430 à 512 MHz et la mémoire de 600 à 850 MHz ! Verdict, une carte 20 à 30% plus rapide sur l’ensemble des benchs, largement devant ATi. La guerre a continué avec la sortie chez ATi des X1900 dont nous avons parlé dans les pages précédentes, immédiatement « contrées » par nVidia et ses GeForce 7900. A vrai dire, si le haut de gamme se porte bien (c’est important), nous ne pouvons pas en dire autant du milieu de gamme ! Arrivées tardivement, les GeForce 7600 sont décevantes, la 6600 GT n’a pas vraiment trouvé de descendance. Ce n’est que grâce, mi 2006, à la démocratisation des versions allégées de modèles haut de gamme que les joueurs au portefeuille plus serré trouvent des solutions intéressantes avec, par exemple, la GeForce 7900 GS.

GeForce 8800, un monstre Novembre 2006, il y a un an et demi, le monde découvre les premières GeForce de huitième génération, les 8800 GTX et GTS. Véritable coup de bambou pour ATi, ces cartes sont les premières compatibles avec DirectX 10 d’une part, surpuissantes (même en DX 9) d’autre part. L’architecture des GeForce 8 est totalement novatrice, la première à pouvoir porter d’ailleurs le nom de superscalaire. nVidia ne propose pas moins de 128 unités de traitement dans ses grosses 8800, ces unités pouvant être affectées à différentes tâches. Autre innovation, le bus mémoire passe de 256 bits à 384 bits, faisant ainsi augmenter sensiblement la bande passante mémoire. Les résultats sont monstrueux si bien que, outre une version améliorée sortie début 2007 (la GeForce 8800 Ultra, une GTX

Carte

GPU

Fréquence GPU

Quantité de mémoire

Bus mémoire

Fréquence mémoire

DirectX

GeForce 7100 GS

G72

350 MHz

128 Mo

64 bits

400 MHz

DX 9.0c

GeForce 7200 GS

G72

450 MHz

64 ou 128 Mo

64 bits

400 MHz

DX 9.0c

GeForce 7300 SE

G73

450 MHz

64 Mo

128 bits

500 MHz

DX 9.0c

GeForce 7300 LE

G72

550 MHz

128 ou 256 Mo

64 bits

400 MHz

DX 9.0c

GeForce 7300 GS

G72

550 MHz

128 ou 256 Mo

64 bits

400 MHz

DX 9.0c

GeForce 7300 GT

G73

350 MHz

256 Mo

128 bits

333 MHz

DX 9.0c

GeForce 7600 GS

G73

400 MHz

256 Mo

128 bits

400 MHz

DX 9.0c

GeForce 7600 GT

G73

560 MHz

256 Mo

128 bits

700 MHz

DX 9.0c

GeForce 7800 GT

G70

400 MHz

256 Mo

256 bits

500 MHz

DX 9.0c

GeForce 7800 GTX

G70

430 MHz

256 Mo

256 bits

600 MHz

DX 9.0c

GeForce 7800 GTX 512

G70

550 MHz

512 Mo

256 bits

850 MHz

DX 9.0c

GeForce 7900 GS

G71

450 MHz

256 Mo

256 bits

660 MHz

DX 9.0c

GeForce 7900 GT

G71

450 MHz

256 Mo

256 bits

660 MHz

DX 9.0c

GeForce 7900 GTO (MSI)

G71

650 MHz

512 Mo

256 bits

690 MHz

DX 9.0c

GeForce 7900 GTX

G71

650 MHz

512 Mo

256 bits

800 MHz

DX 9.0c

GeForce 7900 GX2

G71 x2

500 MHz

512 Mo

256 bits

600 MHz

DX 9.0c

GeForce 7950 GT

G71

570 MHz

512 Mo

256 bits

700 MHz

DX 9.0c

GeForce 7950 GX2

G71 x2

500 MHz

512 Mo

256 bits

600 MHz

DX 9.0c

GPU

Fréquence GPU

Quantité de mémoire

Bus mémoire

Fréquence mémoire

DirectX

256 Mo

64 bits

400 MHz

GeForce 8

Carte GeForce 8400 GS

G86

450 MHz

GeForce 8400 GS « v2 »

G98

567 MHz

64 bits

DX 10 DX 10

GeForce 8500 GT

G86

450 MHz

256 Mo

128 bits

400 MHz

DX 10

GeForce 8600 GT

G84

540 MHz

256 ou 512 Mo

128 bits

700 MHz

DX 10

GeForce 8600 GTS

G84

675 MHz

256 ou 512 Mo

128 bits

1 GHz

DX 10

GeForce 8800 GT

G92

600 MHz

256 ou 512 Mo

256 bits

900 MHz (700 en 256 Mo !)

DX 10

GeForce 8800 GTS

G80

500 MHz

320 ou 640 Mo

384 bits

800 MHz

DX 10

GeForce 8800 GTS 512

G92

650 MHz

512 Mo

256 bits

970 MHz

DX 10

GeForce 8800 GTX

G80

575 MHz

768 Mo

384 bits

900 MHz

DX 10

GeForce 8800 Ultra

G80

612 MHz

768 Mo

384 bits

1,08 GHz

DX 10

GPU

Fréquence GPU

Quantité de mémoire

Bus mémoire

Fréquence mémoire

DirectX

GeForce 9

Carte GeForce 9600 GT

G94

650 MHz

512 Mo

256 bits

900 MHz

DX 10

GeForce 9800 GTX

G92

675 MHz

512 Mo

256 bits

1,1 GHz

DX 10

GeForce 9800 GX2

G92 x2

600 MHz

512 Mo

256 bits

1 GHz

DX 10

« overclockée »), personne n’a véritablement fait mieux depuis ! Même les récentes GeForce 9 ne sont que de pâles bidouilles de GeForce 8, la 9800 GTX est globalement moins puissante que la 8800 Ultra et la 9800 GX2 réclame deux GPU pour faire mieux ! Hélas pour beaucoup d’entre nous, la GeForce 8 est longtemps restée un rêve. Les déclinaisons inférieures (8500 et 8600) n’étaient pas vraiment à la hauteur et, les écrans 22» devenant de plus en plus courant, il fallait des cartes plus puissantes pour en pro-

fiter véritablement. Ce n’est que depuis la sortie de la 8800 GT qui dispose d’un GPU dérivé des autres 8800 (le G92 est une G80 qui chauffe moins et monte plus haut en fréquence, il intègre en outre le moteur vidéo PureVideo 2) à 200 euros pour retrouver un modèle milieu de gamme très intéressant. Les choses se sont encore améliorées depuis avec la sortie récente de la 9600 GT, une sorte de 8800 « light » qui offre un excellent rapport performances/prix.

PC Update

I 53


Dossier

Les performances P

our analyser les performances et comparer les cartes graphiques entre elles, nous avons mené à bien des milliers (!) de tests. Parmi les quelque 70 cartes présentées dans les pages précédentes, les modèles les plus populaires et emblématiques ont été retenus. Voici la liste des 34 cartes que nous avons benchées (toutes sont aux fréquences d’origine préconisées par AMD/nVidia), certaines ayant été doublées pour des tests CrossFire/SLI :

• Radeon X1300 Pro 128 Mo • Radeon X1600 Pro 128 Mo • Radeon X1600 XT 256 Mo • Radeon X1800 XL 256 Mo • Radeon X1800 XT 256 Mo • Radeon X1900 GT 256 Mo • Radeon X1900 XT 256 Mo • Radeon X1900 XTX 512 Mo • Radeon X1950 XTX 512 Mo • Radeon HD2400 XT 256 Mo • Radeon HD2600 Pro 256 Mo • Radeon HD2600 XT 256 Mo GDDR3 • Radeon HD2900 XT 512 Mo • Radeon HD3650 256 Mo • Radeon HD3850 256 Mo • Radeon HD3870 512 Mo GDDR4 • Radeon HD3870 X2 1 Go (512 Mo effectifs) • GeForce 6600 GT 128 Mo • GeForce 7300 GS 128 Mo • GeForce 7600 GS 256 Mo • GeForce 7600 GT 256 Mo • GeForce 7900 GT 256 Mo • GeForce 7900 GTX 512 Mo • GeForce 8500 GT 256 Mo • GeForce 8600 GT 256 Mo • GeForce 8600 GTS 256 Mo • GeForce 8800 GT 512 Mo • GeForce 8800 GTS 512 Mo • GeForce 8800 GTS 640 Mo • GeForce 8800 GTX 768 Mo • GeForce 8800 Ultra 768 Mo • GeForce 9600 GT 512 Mo • GeForce 9800 GTX 512 Mo • GeForce 9800 GX2 1 Go (512 Mo effectifs) Notre plate-forme de test repose sur une carte mère Gigabyte X48-DQ6 (Asus Striker II Formula (nForce 780i SLI pour les tests en SLI), un processeur Intel E8500, 2 Go de DDR2-800 4-4-4-12, un disque dur 750 Go Seagate 7200.11 et une alimentation Seasonic S12 II.

54

I PC Update

Indice de performances général 9800 GX2 HD3870 X2 8800 Ultra 9800 GTX 8800 GTX 8800 GTX 8800 GTS 512 8800 GT 512 8800 GTS 640 HD2900 XT HD3870 GDDR4 9600 GT X1950 XTX 7900 GTX HD3850 256 X1900 XTX X1900 XT X1900 XT 7900 GT X1800 XT 8600 GTS X1900 GT X1800 XL 8600 GT 7600 GT HD2600 XT HD3650 HD2600 Pro 8500 GT 8500 GT 6600 GT X1600 Pro X1300 Pro 7600 GS X1600 XT 7300 GS HD2400 XT

176 157,9 149,4 149 137 134,3 121,6 115,8 105,8 101,3 100 98 96,6 95 95 86 2 86,2 81,86 80 72 70,1 67,2 58,1 55,4 54,1 53,2 44,1 30 4 30,4 29,5 29,3 22,3 22,3 22,3 21,4 21 0

20

40

60

80

100

120

140

160

180

200

9600 GT = 100 Vous l’attendiez tous, le tableau de classement des cartes graphiques, voici donc pour débuter un indice général des performances avec pour référence la 9600 GT à 100 points. Les résultats varient d’un bench à l’autre, un coup les modèles AMD seront avantagés et un autre, ce sont les modèles nVidia qui le seront, l’intérêt d’un tel indice étant justement de gommer ces différences vu que tous les résultats de tous nos benchs (tous les jeux + toutes les résolutions) sont synthétisés ici. Il y a donc un cumul de sept jeux DX 9 testés en 1 024 x 768, 1 280 x 1 024, 1 680 x 1 050 et 1 920 x 1 200 à chaque fois sans filtrage puis en AA4X et AF16X. Résultat des courses, pas moins de 1 904 tests réunis au sein de ce graphique ! Toutefois, il faut analyser cet indice avec la plus grande prudence. En effet, les « petites » cartes sont avantagées, car en petite résolution (1 024 et 1 280), les grosses sont généralement limitées par le CPU et, à l’inverse, les résultats des plus petits modèles sont difficilement lisibles, lissés par leur performances catastrophiques en hautes résolutions. Il va de soi qu’en observant de plus près, une 7600 GS n’obtient pas les mêmes résultats qu’une 7300 GS, par exemple. Nous allons justement creuser un peu plus les résultats dès la page suivante.


Les solutions multiGPU sont rarement intéressantes. En effet, les gains ne sont pas égaux d’un jeu à l’autre et, surtout, le coût financier engendré par l’achat de la seconde carte n’est pas intéressant par rapport à l’achat d’office du modèle supérieur (sauf à vouloir jouer en 2 560 x 1 536 sur un 30” avec trois 8800 Ultra…). Nous avons tout de même noté les gains obtenus par quelques configurations multiGPU sous 3DMark06, preuve que ces solutions peuvent être tout de même très performantes avec des gains moyens compris entre +60 et + 80%. Le dossier spécial MultiGPU un peu plus loin vous en dira beaucoup plus.

Apport du Crossfire/SLI sous 3DMark06 1238 1630

8600 GTS

2088

8600 GTS SLI

2904 3446 3776

8800 GTX

6017 5685

8800 GTX SLI 2703 2965

9600 GT 9600 GT

4297

9600 GT SLI

5102

2052 2059

X1950 XTX

3849 3893

X1950 XTX CF 3058 2999

HD2900 XT

5812 5422

HD2900 XT CF 0

1000

2000

3000

SM 3.0

4000

5000

6000

SM 2.0

3DMark06 Ͳ SM 3.0 Ͳ 1280x1024 AA4X AF8X

3DMark06 Ͳ SM 2.0 Ͳ 1280x1024 AA4X AF8X 9800 GX2 HD3870 X2 9800 GTX 8800 Ultra 8800 GTS 512 8800 GTX HD3870 GDDR4 HD2900 XT 8800 GT 512 9600 GT 9600 GT 8800 GTS 640 HD3850 256 7900 GTX X1950 XTX X1900 XTX 7900 GT X1900 XT X1800 XT HD3650 X1900 GT 8600 GTS 8600 GTS HD2600 XT X1800 XL 7600 GT HD2600 Pro 8600 GT HD2400 XT 7600 GS X1600 XT 6600 GT 8500 GT X1600 Pro X1600 Pro 7300 GS X1300 Pro

6284 6098 4398 4295 3781 3769 3120 3025 3282 2965 2739 2645 1732 2069 1985 1321 1684 1500 1059 1395 1649 1189 1208 809 901 1295 605 539 650 534 588 469 207 241 0

1000

2000

3000

SM 2.0

7000

4000

5000

6000

7000

9800 GX2 HD3870 X2 9800 GTX 8800 Ultra 8800 GTS 512 8800 GTX HD3870 GDDR4 HD2900 XT 8800 GT 512 9600 GT 9600 GT 8800 GTS 640 HD3850 256 7900 GTX X1950 XTX X1900 XTX 7900 GT X1900 XT X1800 XT HD3650 X1900 GT 8600 GTS 8600 GTS HD2600 XT X1800 XL 7600 GT HD2600 Pro 8600 GT HD2400 XT 7600 GS X1600 XT 6600 GT 8500 GT X1600 Pro X1600 Pro 7300 GS X1300 Pro

6059 6004 3995 3928 3459 3425 3126 3058 2915 2703 2509 2508 2174 2048 1902 1789 1650 1468 1325 1302 1249 1241 1102 1028 984 972 669 662 609 461 460 427 328 291 0

1000

2000

3000

4000

5000

6000

7000

SM 3.0

Restons quelques instants sur la comparaison de nos 34 cartes en observant les résultats obtenus sous 3DMark06. Ce test, controversé puisque les résultats varient pas mal d’une version de pilote à l’autre, permet tout de même de se faire une idée quant aux prestations des cartes et les évolutions de l’un à l’autre. Ici, nous voyons bien que les scores ont un différentiel bien plus élevé que sur notre indice précédent.

PC Update

I 55


Dossier Company of Heroes (FPS) HD3850 7900 GTX

61,2

HD3650

38,1

X1600 XT

37,4 30,1

8600 GT

36,1 30,2

7600 GT

22,9 14,5

HD2400 XT

14,2 11,6 11 6

8500 GT 0

20

40

HD2600 XT

70

HD3650

69

7600 GT

39

HD2400 XT

32

0

109

84

HD2600 XT

84

HD3650

85 79

8600 GT

80 77

73

41

1280x1024

51

1280x1024 AA4X AF16X

250

85

64

34 36

8500 GT 200

123

40 34

HD2400 XT

150

210

54 46

7600 GT

64

100

140

100 100

X1600 XT

50

I PC Update

187

8600 GTS

35 35

8500 GT

120

1280 AA4X AF16X

7900 GTX

55 54

X1600 XT

56

119

79 77

8600 GT

100

HD3850

100 100

8600 GTS

80

Zoom entrée/milieu de gamme 1680 203

172 94

60

1280x1024

HD3850

49 2 49,2

31,5

17,1

Zoom entrée/milieu de gamme 1280

7900 GTX

53,6

32,9

8600 GTS 8600 GTS

72,4

54,9

33 5 33,5

HD2600 XT

Pour notre premier « zoom », nous nous sommes intéressé aux modèles d’entrée et de milieu de gamme. Le premier graphique illustre les résultats d’une dizaine de cartes sous Company of Heroes, un jeu que l’on peut qualifier de moyen d’un point de vue des exigences graphiques, à savoir un jeu de conception moderne mais nettement moins exigeant que les titres récents tels que Crysis ou les jeux basés sur le moteur Unreal Engine 3. Qui dit entrée/milieu de gamme, dit 19 ou 22”, c’est pourquoi nous publions les résultats en 1 280 x 1 024 et en 1 680 x 1 024. Les deux graphs qui suivent sont eux des synthèses de nos sept jeux dans les mêmes résolutions, avec pour indice 8600 GTS = 100. Attention à la lecture des résultats ! Ce n’est pas parce qu’une faible 8500 GT obtient un indice de 35 points en 1 280 x 1 024 qu’elle permet de jouer dans cette résolution ! Observez le résultat sous Company of Heroes, seulement 14,2 images par seconde ! Imaginez donc cette pauvre carte graphique sous Crysis en DirectX 10… Pour repère, notre nouvelle référence de milieu de gamme, la 9600 GT, fait un peu mieux que la HD3850 qui finit en haut de ces essais.

114,8

77,6

0

50

1680x1050

100

150

1680x1050 AA4X AF16X

200

250


Même méthodologie appliquée aux cartes haut de gamme, nous avons ici benché en 1 920 x 1 200, la résolution des 24”. Nous pouvons constater que sur une moyenne de plusieurs jeux, les anciens tops tels que la GeForce 7900 GTX et la Radeon X1950 XTX s’en sortent encore bien. Pour « le fun », nous avons placé nos machines dans la configuration la plus extrême qui soit (sauf 2 560 x 1 536), à savoir Crysis en 1 920 DX 10 Very High. Le verdict est sans appel, aucune carte graphique ne permet d’y jouer de façon parfaitement fluide, seule la 9800 GX2 s’en approche sans filtrage. Nous voyons ici à quel point la quantité de mémoire peut avoir d’importance, nos séquences de test réclamant à elles seules plus de 700 Mo de mémoire !

Crysis DX10 Very High (FPS) 9800 GX2

23,8

9,2

HD3870 X2

17,7

9,8

8800 Ultra

16,2

10 5 10,5

9800 GTX

14,9

5,3

8800 GTX 8800 GTX

14 5 14,5

10

8800 GTS 512

13,4

5,1

HD3870 GDDR4

11,5

8

9600 GT

10,3

4,2

X1950 XTX

0 0

7900 GTX

0 0 0

5

10

1920x1200

15

20

25

1920 AA4X

Zoom haut de gamme DX9 9800 GX2

Zoom haut de gamme DX10 161,4

108,9

HD3870 X2

137,2

61,9

8800 Ultra 8800 Ultra

77,7

9800 GTX

69,6

8800 GTS 512 8800 GTX

36,3 0

20

40

1920x1200

80

1920 AA4X AF16X

140

160

180

68 2 68,2

36

67,1

45,5 56,3

20,5

9600 GT

120

72,6

38,6

HD3870 GDDR4

100

77,3

51 1 51,1

8800 GTX

56 60

90,2

27,5

8800 GTS 512 8800 GTS 512

62,3

43,6

7900 GTX 7900 GTX

9800 GTX

76

45,6 ,

X1950 XTX

110,2

81,5

44,3

9600 GT

8800 Ultra

100

69,4

HD3870 GDDR4

110,2

117

58,8

HD3870 X2

102 3 102,3

64,3

9800 GX2

52,1

20,1

7900 GTX

0 0

X1950 XTX

0 0 0

20

40

1920x1200

60

80

100

120

1920 AA4X AF16X

PC Update

I 57

140


Dossier Nuisances sonores à un mètre (dBA)

Consommation (watts) 16 8,9

7300 GS 7600 GS

13,6

X1300 Pro

X1600 XT

41,1

24,5

6600 GT

42,3

18,7

7900 GT

HD3650

22,1

8600 GTS

23,2

X1800 XT

HD2600 Pro

HD2600 XT

103,1

8800 GTS 640

105

27,6 ,

8800 GT 512

26,5 23,5

X1900 XTX

29,5

8800 GTS 512

27,5

X1950 XTX X1950 XTX

32

8800 GTX

107

24,9

8800 GTS 640

6600 GT

96,2

X1900 XT

HD3870 GDDR4

HD3650

94

22,5

9600 GT

9800 GTX

93

30,2

HD3850 256

8800 GT 512

83,8

8800 Ultra

108,7

7900 GTX

115

HD2900 XT

116

X1900 GT

125 126 136

31

9800 GTX

138

28,5

8800 GTX

7900 GT

120,7

146

33,2

8800 Ultra

157

37

HD2900 XT HD2900 XT

34

HD3870 X2

30,1

9800 GX2

161

0

20

40

41

X1800 XT

45

X1900 XT

45

X1900 XTX

45

X1950 XTX

45

7600 GS

42,5

7600 GT

42,5

X1800 XL

43

Max 3D

100

Repos

120

140

160

47 47 48 48 49 50 50 50 50

HD3870 X2

180

51

43

9800 GX2 80

47

X1600 XT

180 60

47

X1300 Pro X1300 Pro

172

35,2

41

41 40,5 41,5 40,5 41,5 41,5 42 40 42 40 42 40,5 42,5 40,5 43 43 43 40 43 40 44 40 44 40,5 44,5 41,5 45 41 45 42,5 46 46

X1600 Pro X1600 Pro

31,3 23,1

40

8800 GTS 512

57 1 57,1 75,2

8600 GT

8600 GTS HD3870 GDDR4

25

7900 GTX

40

48,4

26,7

X1900 GT

9600 GT

47,6

22,5

X1800 XL X1800 XL

HD3850 256

8600 GT

35,6

24,2

40 40 40 40 40 40

7300 GS

31

15 5 15,5

X1600 Pro

HD2400 XT

27,2

18,1

7600 GT

39 39 39 39

8500 GT

53

42

200 30

35

40

3D

45

50

55

2D

Pour terminer notre analyse, nous avons tâché de savoir quelles pouvaient bien être les consommations énergétiques et les nuisances sonores des cartes graphiques. Après tout, ça fait des années que nous râlons sur le fait que la consommation augmente, est-ce vrai ? Eh bien oui ! Mais grâce aux progrès réalisés par AMD et nVidia, la consommation augmente moins que les performances, c’est déjà ça. Il est très amusant de constater le delta entre la consommation au repos (bureau de Windows, aucune animation) et la charge 3D maximale (tests SM 3.0 sous 3DMark06). Pour mesurer la consommation de nos cartes, nous avons utilisé un wattmètre à la prise, après comparaison du même PC utilisé avec une carte graphique PCI pour connaître la consommation de notre machine sans la carte PCI-Express. Concernant les nuisances sonores, nous avons relevé au sonomètre le niveau de bruit perceptible à 1 mètre, boîtier fermé ; il va de soi que nous avons taché de réduire au maximum le niveau sonore des autres composants. Notons que le niveau le plus faible relevé, 39 dBA, correspond à un quasi silence dans une pièce isolée. Les cartes graphiques à 39 dBA sont des modèles fanless ! Le différentiel entre les modèles les plus silencieux et les plus bruyant peut paraître faible à lire les chiffres mais à l’oreille, croyez bien que ça s’entend aisément. Passé 44 dB, nous pouvons même dire que les cartes deviennent très bruyantes.

58

I PC Update


A l’heure des promotions, les 8800 GTS 512 et 8800 GTX sont très intéressantes !

A l’heure où les économies d’énergie sont au centre de tous les débats, les composants informatiques continuent d’accroître leur gourmandise.

Incapable de concurrencer efficacement la GeForce 8800, la Radeon HD2900 XT est tout de même une carte très puissante qui permet de jouer confortablement.

L

e traitement de la vidéo est devenu un critère de première importance concernant les cartes graphiques. Tout GPU moderne, outre ses aptitudes 3D, se doit d’accélérer le décodage des flux vidéos haute définition ; nous ne parlons généralement pas des flux en basse définition qui ne sont pas très exigeants et peuvent être effectués sur n’importe quel PC tandis que pour décoder un film h.264 sans carte graphique moderne, il ne suffit pas d’un P4 2,8 GHz pour y parvenir. AMD et nVidia proposes de nombreuses fonctions de traitement vidéo dans leurs produits (décodage et amélioration de la qualité) regroupées au sein d’un moteur baptisé Avivo chez l’un, PureVideo chez l’autre. Pour s’y retrouver d’une version à l’autre, voici un bref descriptif des différences et la compatibilité des cartes dont nous avons parlé au sein de ce dossier. La notion exprimée (complet, partiel) évoque le décodage pris en charge de façon matérielle par la carte graphique afin de délester le processeur central du PC. Notons que les termes « HD » tellement à la mode et utilisés par AMD/nVidia ne sont pas ici synonymes d’aptitudes du moteur de traitement vidéo mais d’un ensemble de caractéristiques comme la prise en charge HDCP.

Avivo (HD) MPEG-2 : complet VC-1 : partiel h.264 : partiel Sont concernées : toutes Radeon X1000, Radeon HD2900

Avivo HD – UVD MPEG-2 : complet VC-1 : complet ? h.264 : complet Sont concernées : toutes Radeon HD2000 (sauf HD2900)

AVIVO HD – UVD+ MPEG-2 : complet VC-1 : complet h.264 : complet Sont concernées : toutes Radeon HD3000

PureVideo (HD) – VP1 MPEG-2 : complet VC-1 : partiel h.264 : partiel Sont concernées : toutes GeForce 7, GeForce 8800 G80 (GTS 320/640, GTX et Ultra)

PureVideo (HD) – VP2 MPEG-2 : complet VC-1 : partiel h.264 : complet Sont concernées : toutes GeForce 8 (sauf 8400 GS « v2 », 8800 GTS 320/640, 8800 GTX et 8800 Ultra), GeForce 9600 GT

PureVideo (HD) – VP3 MPEG-2 : complet VC-1 : complet h.264 : complet Sont concernées : GeForce 8400 GS « v2 », toutes GeForce 9 (sauf 9600 GT) PC Update

I 59


Dossier

Nous voyons ici un connecteur d’alimentation PCI-Express 1.x en 6 pins et 2.0 en 8 pins. Les deux sont requis pour faire fonctionner la 9800 GX2 !

Fiche technique Vous avez dit semblables ? Voici l’implémentation de cartes graphiques modernes, une AMD Radeon HD3850 à gauche, une nVidia GeForce 9600 GT à droite. Par rapport aux modèles plus anciens, il y a de moins en moins de composants, les GPU étant, eux, de plus en plus complets.

60

1 – GPU, processeur de la carte graphique

6 – Prise d’entrée/sortie TV

2 – Puces de mémoire vidéo

7 – Connecteur CrossFire (AMD) ou SLI (nVidia)

3 – Connecteur d’alimentation électrique additionnel (PCI-Express 1.x = 6 pins, PCI-Express 2.0 = 8 pins)

8 – Composants formant les étages d’alimentation en électricité (mosfets, condensateurs…)

4 – Connecteur pour le ventilateur

9 – PLL, génératrice de fréquences

5 – Prises DVI

10 – Entrée S/PDIF, ne sert que pour les modèles équipés d’une sortie HDMI

I PC Update


Choix de la rédaction Pour 150 euros, la 9600 GT s’est immédiatement imposée comme LA nouvelle référence milieu de gamme. Elle dépasse les cartes haut de gamme des générations X1000 et GF7 !

C

omme vous l’avez vu, il existe d’énormes disparités entre les différentes cartes que nous avons testées ! Ecarts monstrueux au niveau des performances 3D dans un premier temps, mais aussi importants entre les consommations électriques ainsi que concernant les aptitudes vidéo de ces cartes. Les résultats sont riches d’enseignement ; pensiezvous qu’une GeForce 9600 GT, un milieu de gamme à 150 euros, était sensiblement plus performante qu’une 7950 GT qui valait plus du double ? Imaginiez-vous que les HD2600 et 8600 étaient à ce point en retrait par rapport aux grosses cartes qui font le marché d’aujourd’hui ?

La GeForce 8800 au top Si vous possédez déjà une GeForce 8800, quel que soit le modèle, vous aurez peu intérêt à en changer. Seules les versions 256 et 320 Mo commencent à montrer leurs limites, mais sinon mieux vaut les overclocker pour gagner quelques images par seconde plutôt que de dépenser des centaines d’euros. Bien sûr, une GeForce 8800 Ultra ou une 9800 GTX sont sensiblement plus performantes qu’une 8800 GTS de première génération, mais à moins d’avoir un réel besoin de puissance supplémentaire, la dépense semble fortuite. Si vous avez une carte de génération plus ancienne en revanche, une GeForce 7 ou une Radeon X1000, vous aurez tout intérêt à upgrader votre PC car, comme vous l’avez constaté, il existe un réel fossé entre les cartes DX 10 de dernière génération et leurs aînées. Si les plus grosses GeForce 7900 et Radeon X1900 permettent encore de jouer plutôt confortablement en 1 280

x 1 024, même en 1 680 x 1 050 sur les jeux moins exigeants, il est quelques titres particulièrement costauds qui seront limites même à ces résolutions. Ces cartes haut de gamme qui, à leur sortie, permettaient de jouer en 1 920 x 1 200 sur les premiers 24» Dell ne sont plus à la hauteur. Hélas, si vous possédez une GeForce 7 ou une X1000 de moindre puissance, le verdict est encore plus sévère, l’upgrade devient impérative. Quoi acheter ? Mais une GeForce 8800 bien sûr ! Malgré la sortie récente des GeForce 9, une 8800 GT à 200 euros ou une 8800 GTX en promo à 280 euros valent le coup. Tout en haut par contre, mieux

La Radeon HD3870 en version 512 Mo GDDR4 est plus performante qu’une 9600 GT pour un prix à peine supérieur. Pourquoi pas ?

vaut acheter une 9800 GTX, elles sont moins chères que les 8800 Ultra pour des performances à peu près équivalentes. Vous voulez plus ? Seule la coûteuse 9800 GX2 pourra y répondre à moins de passer en SLI en achetant une seconde 8800.

Alors que les GeForce 9 sont encore peu disponibles, les 8800 en G92 sont à saisir à un bon prix.

Pour les budgets plus serrés, deux cartes se distinguent. La GeForce 9600 GT et la Radeon HD3870 en version GDDR4 512 Mo (nous parlons uniquement de la HD3870 DDR4 car les autres modèles n’arrivent pas à dépasser la 9600 GT malgré un prix de vente très légèrement plus élevé). Ces deux cartes DX 10 sont équipées des dernières innovations en matière de traitement vidéo et offrent des performances 3D tout à fait satisfaisantes. C’est une upgrade assez légère pour les propriétaires des GeForce 7 et Radeon X1000 les plus puissantes, mais pour tous les autres, il n’y a pas lieu d’hésiter. Encore une fois, tout dépend des jeux auxquels vous jouez et de la résolution de votre écran.

PC Update

I 61


Dossier

Economisez de l’énergie en assemblant votre PC basse consommation Manuel Da Costa

L

a protection de l’environnement. Voilà un slogan qui gagne chaque jour en popularité. On ne va pas, bien entendu, tomber ici dans l’extrémisme et accuser les overclockers de polluer (commençons par mettre les camions sur les rails ou éteindre les lumières dans les tours de verre avant de cibler nos pauvres petits PC ;) ). Néanmoins, il faut bien admettre que tous les PC n’ont pas besoin de multiGPU, d’alimentations de 1 000 W et se passeraient tout autant de moniteurs calibrés à la truelle en sortie d’usine. Tout n’est bien sûr pas sombre mais le fait est qu’il y a beaucoup à faire pour économiser de l’énergie dans nos PC, surtout ceux qui n’ont pas forcément besoin de puissance. Et même les bêtes de course peuvent gagner en rendement. Puisque dans la plupart des cas, cela se traduira aussi en gains de silence, pourquoi s’en priver ? Voici donc tous nos conseils hardwares et softwares afin d’assembler un PC basse consommation.

Tous les PC ne servent pas à exploser des scores d’overclocking ou à dépasser les 50 FPS dans Far Cry. Pour ceux-là, difficile de faire dans l’économie d’énergie ; quoique, certains des conseils évoqués ici pourront toujours servir. Mais pour les PC qui tournent 24 h/24 en P2P ou en serveurs, pour ceux qui ne servent qu’à Internet ou pour faire de la bureautique, il y a vraiment moyen de consommer moins, tant par ses choix matériels que sa configuration logicielle. Que vous souhaitiez économiser sur votre facture EDF ou sauver la planète, suivez le guide !

62

I PC Update

Un PC basse consommation home made On pourrait imaginer que ce sont les grandes marques de PC qui sont les mieux placées pour proposer des machines à faible consommation. Mais à part celles totalement dédiées à l’entreprise et sans aucune capacité d’upgrade, bien rares sont les exemples de PC normaux pensés pour moins consommer. Comme pour la performance, l’assemblage artisanal d’un PC constitue donc la meilleure


Le modèle G31M3 de MSI est une bonne base pour un PC basse consommation. Même si l’Intel GMA X3100 qu’il embarque consomme plus que le GM950.

solution. Et puis accessoirement, il sera possible d’apporter un soin plus attentif à son esthétique car les choix des constructeurs demeurent encore et toujours trop austères. Un PC économique, doit-il forcément être moche ? Nous, nous ne voyons pas le rapport… Vous pourrez quand même jeter un coup d’oeil sur les barebones Shuttle, Silverstone, ou encore sur le site Litchi PC (www.litchipc.com). De notre côté, nous avons pris comme « référence » un Fujitsu Scaleo L Green Edition entièrement pensé pour l’économie d’énergie et dont vous retrouverez le test complet en fin de dossier. Voyons si nous pouvons faire aussi bien ou mieux dans le cadre de notre assemblage. Le but n’est pas de refaire moult

Pour réduire la consommation de vos ventilateurs et les nuisances sonores par la même occasion, il existe des petits adaptateurs Molex (comme ici avec Zalman) conçus pour sous-volter ces derniers.

L’alimentation Fortron Green de 350 W offre un rendement supérieur à 80 % et représente un excellent choix pour monter un PC basse consommation.

comparatifs, de nombreux dossiers étant régulièrement publiés dans PC Update et Hardware Magazine mais de repenser nos conclusions en fonction de cet objectif. Nous choisirons donc pour commencer l’alimentation 400 W Fortron Green (www.venticom.com) qui offre pour un prix raisonnable de faibles nuisances sonores ainsi qu’un bon rendement. Dans le même registre, la gamme EarthWatts d’Antec propose les mêmes avantages, en plus d’être intégrée dans certains boîtiers tels que le Sonata III ou encore le barebone NSK1380. Du côté de la carte mère, nous avons donc choisi de nous appuyer sur le modèle MSI G31M3 basé sur le chipset 945G+ICH7 d’Intel et l’IGP GMA X3100, celui-ci offrant un port PCI-Express 16x, deux slots PCI, un contrôleur Gigabit Lan, l’HD Audio 7.1, un port U-DMA, quatre ports SATA-2 et huit ports USB 2.0. Un choix motivé par le dual core E2180 d’Intel (2 GHz/1 Mo de cache L2/ FSB 800 MHz) qui offre le

meilleur rapport qualité/prix du moment et une consommation dérisoire. L’Athlon X2 BE-2350 se montrant quant à lui moins performant et plus cher (il est en moyenne 20 euros plus cher que le E2180). De nature, curieux, nous recourrons également au Core 2 Duo E4600 qui dispose lui aussi d’un excellent rapport qualité/prix, histoire de souligner la différence de consommation avec le E2180. Nous utiliserons ensuite un kit mémoire de 2 Go de DDR2, une quantité qui sera partagée avec l’IGP et qui apporte un réel confort d’utilisation que vous soyez sous Linux ou Windows, ainsi qu’un graveur Plextor SATA et un disque dur SATA-2 Seagate Barracuda 7200.11 d’une capacité de 750 Go.

A l’instar du modèle MSI G31M3 embarquant l’Intel GMA X3100, l’Asrock ConRoe1333-DVI/H nous a permis de réduire notre consommation de plus de 10 W.

PC Update

I 63


Dossier

“Le choix d’une alimentation à très haut rendement permet de réduire significativement la consommation électrique. ” Afin de limiter la consommation d’un PC, évitez de choisir une carte mère embarquant un très grand nombre de ports USB, FireWire et eSATA. Et limitez-vous, au contraire, à l’USB 2.0 qui est plus répandu et amplement suffisant.

Avec notre wattmètre, commençons par mesurer la charge maximale de notre configuration à l’aide d’une session de SP2004 Orthos Edition cumulée à 3DMark06. Premier constat, la consommation du PC en pleine charge atteint les 96,6 W. Un brin décevant puisque nous espérions faire aussi bien, sinon mieux que le Fujitsu. Même en baissant la fréquence du processeur de 2 à 1,6 GHz, nous n’obtenons pas mieux qu’un pic de 92,3 W. Pas découragé pour autant, nous entreprenons alors de remonter cette même machine, en utilisant cette fois-ci une carte mère Asrock ConRoe1333-DVI/H utilisant le couple Intel 945G (GMA 950)+ICH7. De quoi proposer une machine presque identique au Scaleo. Bien nous en a pris puisque, cette fois, nous avons pu atteindre un Mesure de la consommation électrique en watts

pic de 79,1 W avec une fréquence de 1,6 GHz et 84,7 W en utilisant la fréquence d’origine de notre E2180. Ce qui n’est vraiment pas si mal en comparaison des 82W du Scaleo. Surtout lorsque l’on sait qu’un tel pic est assez

rarement atteint dans des conditions normales d’utilisation. Pour aller un peu plus loin, nous mesurons la consommation au repos (bureau Windows) qui est de 51,7 W, contre 56,6 W avec la solution Intel GMA X3100. Ce qui reste supérieur aux 47 W mesurés avec le Scaleo. Nous avons pris de nouvelles mesures en simulant une utilisation bureautique, Internet et multimédia simultanée. Simulation qui comprenait l’utilisation d’IE 7 avec quatre onglets actifs, la lecture d’un CD audio via Windows Media Player, la vérification de nouveaux e-mails avec Outlook, le téléchargement de Mandriva 2008 Spring sous uTorrent et la modification d’un document sous WordPad. La consommation n’est alors respectivement que de 60,6 W et 59,9 W pour une fréquence processeur de 2 et 1,6 GHz. Pour terminer, nous avons réalisé une nouvelle séance de mesures en utilisant le processeur E4600 à sa fréquence d’origine, puis en abaissant celle-ci à 1,8 GHz, soit l’équivalent d’un E4300. Vous découvrirez les chiffres plus en détail dans le tableau ci-contre. Avec un total de 400 euros en moyenne, hors boîtier, pour un PC plus « costaud » que le Scaleo L Green Edition, notre initiative devrait vous encourager à assembler votre propre PC basse consommation.

Les processeurs Intel E2180 et E4600 offrent un excellent rapport qualité/prix et une consommation électrique dérisoire.

Consommation au repos (bureau Windows)

Simulation bureautique, multimédia et Internet

Charge maximale

E2180 + GMA X3100

51,7

65,9

96,6

E2180 + GMA 950

51,7

60,6

84,7

E2180@1,6 GHz + GMA X3100

51,7

65,1

92,3

E2180@1,6 GHz + GMA 950

51,7

59,9

79,1

E4600 + GMA X3100

56,6

69,3

105,8

E4600 + GMA 950

56,6

62,7

93,3

E4600 @1,8 GHz + GMA X3100

56,6

66,6

103,1

E4600 @1,8 GHz + GMA 950

56,6

65

91,7

La consommation identique au repos, quelle que soit la fréquence du processeur, s’explique tout simplement par l’EIST. La consommation des ressources étant faible, la fréquence du processeur est automatiquement abaissée à 1,2 GHz, le voltage passant, pour sa part, à 1,16 V.

64

I PC Update


Réduire la consommation de son PC Si de nombreuses initiatives sont à mettre au bénéfice des constructeurs pour préserver l’environnement, comme par exemple la technologie Hyper Power de nVidia (Hybrid Power du Hybrid SLI chez nVidia > Hybrid SLI = GeForce BOOST + Hybrid Power), ils s’adressent avant tout à ceux qui souhaitent acquérir une nouvelle machine ou upgrader la leur. Pour ne pas vous laisser sur le carreau, nous vous proposons de découvrir avec ce dossier, tous nos trucs et astuces pour réduire les besoins énergétiques de votre PC.

S

i nous venons de voir qu’il était plus qu’accessible d’assembler son propre PC basse consommation, il ne faut pas non plus oublier que les machines de ce genre ne sont pas adaptées à tous les types d’usages. C’est le cas par exemple du traitement 3D, de la musique assistée par ordinateur, du jeu vidéo ou encore du traitement vidéo. Ce qui implique un PC plus puissant et consommant davantage. Mais là encore, ces utilisations n’occupent que très rarement la majorité du temps que nous passons derrière notre PC. D’autant plus si vous partagez ce dernier avec les membres de votre famille. Nous allons voir comment maîtriser la consommation électrique en nous appuyant sur un de nos PC références qui nous sert

La désactivation de la fonction d’indexation permet de réduire l’utilisation d’un disque dur et sa consommation, ce dernier étant moins sollicité.

au jeu, mais aussi à la création 3D. C’est-à-dire un Core 2 Duo E6700 refroidi par un Zalman CNPS-9500, épaulé par 2 Go de mémoire DDR2 PC-8500 OCZ Reaper, une carte mère ABIT IN9 32X-MAX (nForce 680i SLI), deux disques durs Seagate Barracuda 7200.10 SATA-2 de 750 Go chacun, un graveur Plextor, un lecteur de cartes mémoire, quatre ventila-

Si les pilotes des cartes graphiques permettent, suivant les modèles, de contrôler le ventilateur refroidissant le GPU, le logiciel RivaTuner offre lui aussi la possibilité de réduire la fréquence GPU et la vitesse de rotation du ventilateur.

Tous les modèles de cartes mères ne permettant pas de contrôler la vitesse de rotation des ventilateurs, il reste toujours des logiciels tels que SpeedFan pour s’affranchir de cette limitation.

PC Update

I 65


Dossier trop grande majorité de professionnels ne prenant même pas la peine de bien régler ce dernier. C’est le cas, par exemple, des machines orientées Gamer (Alienware, Commodore, etc.) qui sont de véritables turbines d’avion de chasse. Par défaut, vous n’aurez généralement pas à vous soucier de l’Enhanced Intel Speedstep Technology (EIST) pour les processeurs Intel ou du Cool ’n’ quiet d’AMD, qui sont par défaut activés (Advanced BIOS Features/CPU Features) et qui, pour rappel, permettent de réduire dynamiquement la fréquence et la tension d’alimentation des processeurs. La fréquence de notre Core 2 Duo E6700 est ainsi passée de 2,66 à 1,6 GHz, la tension diminuant, quant à elle, de 1,325 à 1,160 V, occasionnant une baisse de consommation de 11 W. Outre ce premier gain non négligeable, il est également possible de grappiller quelques petits watts supplémentaires en activant l’option Thermal Control, qui permet d’ajuster dynamiquement la vitesse de rotation

Si le paramétrage des ventilateurs via le BIOS vous agace, certains utilitaires de constructeurs permettent de le faire directement sous Windows comme ici uGuru pour Abit. Vous pourrez, en outre, modifier les voltages ainsi que les fréquences de fonctionnement pour réduire sensiblement la consommation électrique.

Repos

Charge

Tension de base / EIST

2,4 GHz EIST

QX9770 3,2 GHz

1,2875 V / 1,055 V

172 W

249 W

1,25 V / 1,0 V

158 W

218 W

1,20 V / 0,95 V

139 W

plantage

teurs 120 mm, une SoundBlaster Audigy 4 SE, une alimentation OCZ Xstream de 650 W et une GeForce 8800GTX de MSI.

Optimiser le BIOS

L’utilitaire CPU-Z permet de vérifier en un seul coup d’oeil si l’EIST ou le Cool ’n’ Quiet est activé dans le BIOS.

La première chose qui s’impose est de correctement paramétrer votre BIOS. Pour être le plus proche possible de la réalité, nous avons volontairement chargé les paramètres par défaut du BIOS, une

L’ACPI Le mode Advanced Configuration and Power Interface du BIOS permet de mettre l’ordinateur en état de veille, tout en conservant les données intactes en mémoire vive. Ce qui permet d’éviter d’éteindre l’ordinateur, une opération qui prend du temps et qui oblige l’utilisateur à sauvegarder le travail en cours. Pour cela, deux paramètres sont disponibles dans le BIOS sous l’onglet Power Management Setup : S1 (Power On Suspend) et S3 (Suspend To RAM). Alors que le paramètre S1 permet de mettre en veille certains composants (disque dur, moniteur, carte son, etc.), le processeur, le chipset et les ventilateurs continuant de fonctionner, l’état S3 permet, au contraire, de sauvegarder le travail en cours en mémoire vive, avant de mettre en veille tous les composants, en conservant un minimum de courant pour alimenter la mémoire, soit en moyenne 2/3 W.

66

I PC Update

du ventilateur refroidissant votre CPU en fonction des paramètres du constructeur. Les meilleurs modèles de cartes mères vont même plus loin en offrant un plus grand contrôle sur les ventilateurs. Il est ainsi possible de paramétrer, via le BIOS, la vitesse de fonctionnement de chaque ventilateur, ventirad y compris, qui variera en fonction des seuils limites de température que vous aurez choisis. C’est l’onglet FanEQ Control qui permet dans notre cas d’effectuer un contrôle minutieux de chaque ventilateur, l’IN9 32X-Max disposant de sept connecteurs pour ventilateurs en plus du CPU. Un excellent moyen qui évite de s’encombrer d’un rhéobus et de toute sa connectique, mais surtout qui nous a permis de réduire notre consommation de 11 W. Nous sommes ainsi passé d’un pic maximum de 213 W arrivé sur le bureau Windows, à 190 W ! Pour gagner un peu plus encore, n’hésitez pas à tester « l’undervol-


tage », en français la réduction de tension électrique. Si nous avons l’habitude de l’augmenter pour overclocker, sa diminution permet de gagner de précieux watts d’énergie électrique, quelque soit la fréquence. Si vous n’underclockez pas, vous pouvez tenter de mettre une tension légèrement inférieure à la tension norminale de votre CPU (par exemple -0,05 V) et vérifier que le PC reste stable. Si c’est le cas, vous aurez déjà gagné un peu en conso. Le petit tableau ci-contre montre un exemple sur un puissant Core 2 Extreme QX9770. Notons que certaines cartes mères ne permettent pas de réduire la tension.

L’influence d’un écran LCD mal réglé sur la consommation Réglés en usine, les moniteurs LCD reproduisent, par défaut, des couleurs dont la justesse varie d’un modèle à l’autre. L’utilisateur pourra aussi bien tomber sur une restitution des couleurs que nous pouvons qualifier de « juste », pour les meilleurs modèles, que malheureusement sur une totalement fantaisiste. Nous citerons l’exemple du moniteur LCD 28 pouces VX2235WM de Viewsonic qui a eu la très mauvaise idée de prérégler la luminosité à 100 %. Une telle luminosité n’imposant pas seulement le port de lunettes de soleil, mais également une surconsommation atteignant les 114 W ! Le rendu des couleurs étant loin d’être parfait, il

Une fois créé, le profil ICC peut être installé à l’aide du gestionnaire de périphériques ou bien en plaçant le fichier directement dans le répertoire \Windows\system32\spool\drivers\color. Il faudra ensuite sélectionner le nouveau profil à utiliser via les paramètres d’affichage.

aura fallu calibrer l’écran avec notre sonde LaCie Blue Eye Pro pour obtenir une luminosité, un gamma et un rendu des couleurs « plus justes ». Ce qui, au final, nous a permis d’améliorer notre confort visuel, en plus de réduire la consommation de l’écran, en passant sous le seuil

L’utilisation d’un profil ICC, créé à l’aide d’une sonde de calibration, permet de réajuster la luminosité et le gamma, entraînant ainsi une réduction de la consommation électrique.

des 70 W. Le test de tous les écrans étant impossible et certains modèles étant bien mieux réglés en usine, le calibrage pourra avoir plus ou moins d’impact sur la consommation électrique. Toutefois, l’achat d’une sonde de calibration n’étant pas à la portée de tout le monde, quelques opérations simples permettent déjà de réduire le besoin énergétique comme le simple fait de baisser la luminosité. Pour finir de vous convaincre, nous avons mesuré la consommation de notre IIyama E1902S 19 pouces dont la luminosité est de 50 % par défaut, avant de pousser cette dernière à 100 %. Notre IIyama consomme alors respectivement 22,7 et 33,9 W. Une hausse de plus de 10 W qui n’est donc pas négligeable. D’ailleurs, comme beaucoup d’autres modèles, notre IIyama propose deux modes d’économie d’énergie qui permettent de réduire la consommation de 15,5 à 19 W. En contrepartie, la luminosité sera plus faible, ce qui conviendra particulièrement aux pièces bien éclairées. Nous terminerons par une petite parenthèse qui fait suite à un récent post de la part d’un de nos lecteurs sur notre forum, concernant l’utili-

PC Update

I 67


Dossier

Les disques durs 2 pouces et demi à la rescousse Si lors de notre première partie, nous avons pu atteindre un seuil maximum plus qu’honorable de 84,7 W en charge, il reste possible de le réduire davantage en utilisant un disque dur SATA-2 de 2 pouces et demi. Ces derniers sont particulièrement adaptés aux PC portables et à la basse consommation, puisque d’une consommation moyenne de 8 à 10 W au repos pour les disques durs 3 pouces et demi, on passe de 0,8 à 3 W pour un modèle 2 pouces et demi (moins de 1,5 W en veille). La consommation lors des séquences de lecture/écriture passant respectivement de 13-18 W à 2-6 W. Ce qui permettra de réduire la consommation de plus de 10 W dans le meilleur des cas, ce qui est plus que conséquent. D’autant plus si on considère l’écart de performances entre les disques 3 pouces et demi et 2 pouces et demi qui s’est considérablement réduit lors des derniers mois. Malgré tout, les disques durs 2 pouces et demi demeurent plus coûteux. Contrairement aux modèles 5 400 trs/ min, leur capacité de stockage se limite tout au plus à 200 Go en SATA-1/2 pour les modèles 7 200 trs/min qui assurent de meilleures performances. Une limitation qui disparaîtra avec l’arrivée prochaine des nouvelles gammes de disques durs 2 pouces et demi, comme la série Fujitsu MHZ2 BJ attendue pour le second trimestre 2008. Ce qui sera nettement plus confortable pour un usage multimédia, Internet et bureautique. Si les disques durs 3 pouces et demi sont encore incapables d’offrir le même niveau de consommation que les modèles 2 pouces et demi, les constructeurs ne manquent pas d’astuces pour réduire cet écart. Tous les derniers modèles intègrent d’ailleurs des technologies de réduction de la consommation énergétique. Hitachi utilise, par exemple, la technologie Low RPM Idle qui permet de réduire la vitesse de rotation des plateaux pour économiser jusqu’à 40 % d’énergie, d’après les dires du constructeur. Plus récemment, en mettant au point le mécanisme de rampe de chargement/déchargement, Hitachi est parvenu à réduire la consommation moyenne au repos de 9 W pour le modèle 1 To (HDS721075KLA330) à 6,9 W en mode parqué (mode utilisé avec les disques durs 2 pouces et demi) et 4,5 W en réduisant la vitesse de rotation des plateaux. Des technologies similaires existent auprès des autres constructeurs comme, par exemple, Western Digital qui utilise pour sa gamme Western Caviar GP, les technologies IntelliSeek, IntelliPower et IntelliPark. Ces dernières permettent, via des algorithmes mathématiques poussés, de mieux gérer le cache, de calculer la vitesse de rotation optimale des plateaux ou encore de décharger automatiquement les têtes de lecture/écriture lors d’un état de veille.

sation d’une sonde de calibration. Car contrairement à ce qui a été rapporté, et outre le prix prohibitif pour les particuliers qu’une sonde de calibration engendre, celle-ci ne se limite pas à un usage unique. Comme tout composant électronique, l’écran LCD est soumis à des contraintes électriques et magnétiques qui ont pour effet de dérégler l’équilibre chromatique avec le temps. Il est, par conséquent, plus qu’utile de créer un nouveau profil ICC régulièrement.

La défragmentation

Phénomène encore méconnu de bon nombre de débutants, la fragmentation a pour effet de détériorer les performances du disque dur dans le temps. Dans notre cas, nous avons volontairement installé une multitude de programmes, après avoir consacré de longues heures au surf Internet, à des mises à jour système, et avant de désinstaller plusieurs applications dans le but de créer des « trous ». Les têtes sont alors plus sollicitées puisqu’elles doivent parcou68

I PC Update

Très peu gourmand avec moins de 1 % d’utilisation processeur, Diskeeper 2008 permet d’analyser et de défragmenter dynamiquement le disque dur en tâche de fond. Ce qui permet à ce dernier d’être quasi continuellement performant, tout en réduisant la consommation, les temps d’accès restant optimaux.

rir plus de chemin pour trouver les informations. Ce qui entraîne une hausse de la consommation électrique, notre disque ayant, par exemple, atteint un pic de 18 W

! Il suffit alors de défragmenter le disque, mais encore faut-il y penser en plus de le faire régulièrement. D’autant plus que l’opération nécessite obligatoirement


Développé par UniBlue, le logiciel LocalCooling qui permet de gérer les options de mise en veille n’est pas d’une grande utilité, même s’il distille une estimation de la consommation de votre PC, celle-ci étant erronée puisqu’au moment de la capture, notre consommation réelle s’élevait à 182 W contre les 126 W annoncés.

Très simple à utiliser, la gestion des profils matériels n’est en revanche disponible que sous Windows XP. Il faudra, au contraire, créer autant de comptes utilisateurs que nécessaire pour recréer une similigestion des profils matériels sous Vista.

la consommation de notre disque à une moyenne de 13 W contre un pic de 18 W avec un taux élevé de fragmentation.

Hyper Power pour tout le monde

Comme nous l’avons énoncé plus haut, cette technologie impose une mise à jour matérielle de votre PC. Il existe pourtant une petite astuce très simple : la création d’un profil matériel. Car si lors d’un précédent article, nous vous avions indiqué comment créer un profil permettant d’adapter le démarrage et la désactivation des services Windows en fonction de votre utilisation (bureautique, jeu, création 3D, etc.), il est également possible d’inclure les composants. Sur notre configuration, nous avons ainsi pu installer sur une Radeon HD2400Pro avec Très utile, il est possible de désactiver les composants et périphériques inutiles suivant votre utilisation.

de ne pas utiliser votre PC et de penser à l’éteindre une fois la défragmentation terminée. L’idéal est alors d’effectuer une défragmentation continue en temps réel et en tâche de fond sans que vous soyez gêné dans votre utilisation. Vous pouvez alors vous tourner vers le logiciel gratuit Iobit Smart Defrag qui laisse la possibilité de régler le seuil d’utilisation des ressources machine en dessous duquel vous pouvez défragmenter. Toutefois, nous lui préférons largement le logiciel Diskeeper 2008 (www.diskeepereurope.com) qui est moins gourmand (1 % d’utilisation processeur et une consom-

Il est tout à fait possible de recycler une ancienne carte graphique, comme ici la 7600GT de MSI, pour créer un profil matériel et bénéficier d’un Hybrid Power fait maison.

mation mémoire de 4 Mo contre respectivement 8 et 12 %, puis 7 et 13 Mo pour le logiciel d’Iobit et Windows), mais aussi plus performant puisqu’il est possible de vérifier son travail à l’aide des journaux, d’exclure des fichiers de la défragmentation, de défragmenter le fichier d’échange et la table MFT. Il suffit de lancer une session de HDTach sous XP ou ATTO pour s’apercevoir que les gains de performances sont à l’avantage de Diskeeper même s’ils restent sensibles. Mais à l’usage, cette méthode de défragmentation nous a permis de stabiliser (lors d’accès en lecture/écriture) PC Update

I 69


Dossier disponibles, vous pourrez renommer le profil en cours d’utilisation (par exemple Standard) et ensuite cliquer sur le bouton Copier pour créer autant de profils que vous le souhaitez. Lors de chaque démarrage, Windows vous demandera de sélectionner le profil de votre choix. Il ne reste alors plus qu’à gérer les périphériques et services que vous souhaitez activer ou non, sachant que les modifications que vous apporterez ne s’appliqueront qu’au profil en cours d’utilisation. Pour modifier les profils que vous aurez créés, vous devrez redémarrer Windows pour charger le profil que vous souhaitez configurer ou modifier.

Les options d’alimentation, accessibles depuis le panneau de configuration, permettent de choisir quand éteindre les disques durs, l’écran et le PC.

dissipateur passif pour arriver à une consommation de 138 W, une fois sur le bureau Windows, soit une économie d’un peu plus de 50 W ! Bien entendu, cette astuce ne pourra fonctionner que sur les cartes mères disposant de deux ports PCIExpress 16x. Dans le cas contraire,

il reste encore possible de trouver des cartes graphiques au format PCI sur eBay. Pour créer un profil matériel sous XP, il suffit d’ouvrir les propriétés de votre poste de travail, l’onglet Matériel puis de cliquer sur le bouton Profils matériels. Dans la liste des profils matériels

Malheureusement pour nous, Microsoft a de nouveau eu une idée géniale en supprimant la gestion des profils matériels sous Windows Vista. Il reste malgré tout possible de ruser en créant autant de comptes utilisateurs que vous souhaitez de profils matériels. Les optimisations système et matérielles que vous ferez ne s’appliquant qu’au compte utilisateur en cours d’utilisation. Au final, vous pourrez réduire davantage votre consommation en désactivant tous les composants inutiles suivant votre type d’utilisation comme, par exemple, la désactivation d’une deuxième carte son qui n’est utile que pour le jeu et les logiciels de communication Teamspeak/Ventrilo, ou encore des éventuels ports eSATA, FireWire, lecteurs/graveurs, lecteur de cartes mémoire, ou du deuxième port RJ-45 pour un profil jeu. Puisqu’il est plutôt rare d’avoir à utiliser un support de stockage externe, de graver un disque, ou de lire une carte mémoire lors d’une partie de Team Fortress 2.

La gestion de l’alimentation sous Windows

Contrairement à XP, les options d’alimentation sont bien plus complètes sous Windows Vista.

70

I PC Update

Au-delà de ces considérations matérielles, un changement d’attitude est indispensable pour réduire encore plus sa consommation électrique. Mais les bonnes habitudes se perdant souvent, il reste indispensable de configurer correctement les options d’extinction et de mise en veille automatiques. Sous Windows XP, il suffira d’ouvrir et de modifier les propriétés d’alimentation (Panneau de configuration) pour choisir quand éteindre les dis-


pour ne pas prendre le temps de mettre en veille son PC.

Lorsque vous n’utilisez pas votre réseau local et/ou Internet, il est plus judicieux de laisser Windows se charger d’éteindre votre carte Wi-Fi.

ques durs, l’écran et le PC. Il sera en outre possible d’activer la mise en veille prolongée qui permet de stocker les informations non pas en mémoire vive (S3), mais sur le disque dur avant d’éteindre le PC (état S4 de l’ACPI). A noter que la coupure électrique pour certains périphériques et composants (Wi-Fi, port Ethernet, concentrateur USB, etc.) est activée par défaut sous XP. Toutefois, l’installation de certains pilotes pouvant venir interférer, il est toujours plus prudent de vérifier que l’option d’économie est bien activée. Ouvrez pour cela l’onglet Gestion de l’alimentation dans les propriétés de votre périphérique (Gestionnaire de périphériques), puis vérifiez que la case Autoriser l’ordinateur à éteindre ce périphérique pour économiser l’énergie est bien cochée. Ces options sont également disponibles sous Vista en plus d’offrir une gestion de l’alimentation simplifiée. Puisque la majorité des paramètres sont regroupés dans les options d’alimentation (Panneau de configuration/Options d’alimentation/Modifier les paramètres d’alimentation avancés), vous pourrez ainsi agir sur des éléments tels que le port PCI-Express, les périphériques USB, Bluetooth, la carte réseau sans fil, le partage réseau, le processeur, mais aussi la recherche et l’indexation pour

réduire la sollicitation du disque dur. Tous ces paramètres n’offrent aucun gain immédiat mais ils permettent de faire face à un oubli d’extinction, puisqu’il suffit d’avoir une visite ou un coup de fil inopiné

Avec toutes ces astuces et conseils, il est donc aisé de réduire la consommation électrique d’un PC. Nous avons, par exemple, pu réduire notre consommation pour un usage standard (Internet, bureautique, multimédia) de plus de 32 %, en passant d’une consommation moyenne en utilisation standard de 225 à 152 W. A raison de 8 h de travail par jour, cinq jours par semaine, sur 47 semaines (il faut bien prendre 5 semaines de congé), nous avons pu réduire notre consommation de 129 kWh. Il est toujours possible d’affiner davantage les réglages pour grappiller quelques petits watts, comme la réduction de la vitesse de lecture d’un lecteur optique. Mais la plupart des modèles intégrant un contrôle dynamique de la vitesse de lecture, vous pourrez tout au plus gagner 1 W. Idem pour la vitesse de gravure qui ne permettra d’économiser que tout au plus 2 W. Il ne faut toutefois pas négliger ces faibles gains qui, mis bout à bout, peuvent offrir une économie d’une dizaine de watts.

La mise en veille prolongée permet d’enregistrer les informations non pas dans la mémoire vive, mais sur le disque dur. Ce qui permet une extinction totale du PC, tout en retrouvant le bureau tel qu’il aura été quitté lors du prochain démarrage.

PC Update

I 71


Dossier

Scaleo Green Edition une unité centrale basse consommation

L

e principe directeur du Scaleo L Green Edition étant de réduire la consommation, les éléments qui le composent n’ont pas été choisis pour leurs performances. On se trouve donc face à une configuration bureautique/ Internet très dépouillée et finalement pas si différente de n’importe quel PC d’entrée de gamme. Très rationnellement, le processeur est un Pentium E 2140 à 1,6 GHz. Un CPU à l’excellent rapport performances/prix et à la consommation dérisoire. Carte graphique, carte son… autant de rôles qui sont assumés par la carte mère. La carte graphique intégrée est tout juste suffisante pour la bureautique, car avec un score 3DMark 2006 s’élevant à 207 points, les joueurs risquent de rester hermétiques à l’argument écologique. Il reste toutefois un port PCI-Express 16x. Côté stockage, on trouve un graveur DVD (SATA) et un disque dur 160 Go (SATA là aussi) de marque Western Digital.

Caractéristiques techniques •Nom : Fujitsu-Siemens Scaleo LI2405-7002 Green Edition •Processeur : Pentium E 2140 à 1,6 GHz •Mémoire : 2 x 512 Mo de DDR2 •Disque dur : 160 Go •Format : minitour (microATX) •Carte graphique : intégrée (Intel GMA 950) •Son : HD Audio 2.0 •Réseau : Ethernet 100/1 000 Mbps •Alimentation : 250 W •Graveur DVD : CD-RW, DVD-R/-RW, DVD +R/+RW •Lecteur de cartes : 11 en 1 •Accessoires fournis : clavier, souris •Prix : 399 euros Silence Faible consommation Partie graphique à la traîne Pas de solutions innovantes pour réduire la consommation

72

I PC Update

Le petit Scaleo est alimenté par une Fortron à ventilateur de 120 mm, alimentation donnée pour 250 W d’après la brochure… c’est suffisant si on ne touche à rien, mais trop léger pour envisager une upgrade ; au standard ATX, on pourra donc la remplacer facilement. Avec son gros ventilateur à basse vitesse, la Fortron s’avère très discrète. C’est elle qui assure la circulation de l’air dans le boîtier, le seul autre ventilateur étant celui du processeur.

Moins de 50 W à l’usage Bien entendu, à peine le Scaleo déballé, nous l’avons vite branché à un wattmètre pour une séance de mesures. Premier constat, la consommation du PC éteint est de 3 W, un cheveu en dessous des 3,5 W annoncés. Parfait, mais il n’y a pas de quoi être impressionné : la plupart des PC tournent entre 2,5 et 5 W lorsqu’ils sont éteints. Allumons l’engin, Windows Vista démarre et une fois arrivé sur le bureau, le wattmètre rend son verdict : 47 W. Pas mal du tout ! En utilisation bureautique, la consommation bondit à 60 W lorsqu’une application se charge et se stabilise généralement autour des 50 W. Reste

à tester la consommation en charge… avec une instance de CPUBurn, ce dernier étant utilisé pour solliciter l’un des cores, et 3DMark 2006 occupant l’autre, tout en faisant chauffer la carte graphique, on arrive à 82 W de consommation maximale. Un pic relevé lors d’un des passages du benchmark mais la moyenne s’établissait plutôt autour de 78 W. Les chiffres annoncés par Fujitsu sont donc fiables, le Scaleo L Green Edition ne consomme pas grand-chose. Le Scaleo L Green Edition présente quelques bonnes idées pour réduire la consommation d’un PC : carte son et carte graphique intégrées à la carte mère, choix d’un processeur à faible consommation, réduction du nombre de composants. Il n’apporte cependant aucune solution vraiment originale, rien qu’on ne puisse faire en montant son PC soimême et en sélectionnant attentivement ses composants. Calcul fait, une configuration comparable achetée sur Internet en éléments séparés coûterait autour de 350 euros. Pour 50 euros de plus, vous avez ici droit à une garantie constructeur et à une offre logicielle complète. L’affaire est donc intéressante, à condition que vous n’ayez besoin de rien de plus qu’une configuration bureautique. Pour des utilisations plus gourmandes en puissance, il faudra accepter de consommer quelques watts supplémentaires et se tourner vers du plus costaud.


Quad GPU : Dossier

une solution réaliste ? AMD et nVidia permettent maintenant d’exploiter la puissance de quatre de leurs GPU simultanément de manière à augmenter les performances graphiques. Que valent ces solutions ? L’occasion également de nous repencher sur les variantes triGPU. Tridam

U

n peu plus de 2 ans après le fiasco du quad SLI qui reposait à l’époque sur deux GeForce 7800 GX2, 7900 GX2 ou 7950 GX2, le quad GPU est de retour et cette fois tant chez AMD que chez nVidia. Pour rappel, le quad SLI dans sa première incarnation avait souffert de nombreuses critiques puisque selon nous, il s’agissait d’une supercherie de la part de nVidia, la technologie n’étant pas fonctionnelle… à l’exception de quelques benchmarks qui se comptaient sur les doigts d’une main. Aujourd’hui, cela s’est amélioré, mais pourquoi ? Avant tout chose, il est bon de rappeler le fonctionnement du multiGPU.

MultiGPU : comment ça marche ? Plusieurs modes de rendu existent. Le premier, le SFR (Split Frame Rendering),

74

I PC Update

consiste à couper l’image en autant de parties qu’il y a de GPU, chacun s’occupant de traiter une partie. La séparation est soit fixée, soit déterminée dynamiquement de manière à répartir au mieux la charge entre les GPU. Le SuperTiling pris en charge par le CrossFire est une variante du SFR qui attribue à chaque carte des petites zones de travail dispersées sur toute la surface de l’image de manière à maximiser la probabilité qu’une seule carte n’ait pas à se charger de tout le travail complexe dans le cas d’une séparation fixe. Le second, l’AFR (Alternate Frame Rendering), consiste simplement à ce que chaque GPU calcule successivement une image, c’est le mode le plus performant, mais il n’est pas transparent du point de vue de son fonctionnement. Puisque deux, trois ou


Mémoire x 1 Si la puissance de calcul et la bande passante mémoire de chaque carte graphique s’additionnent dans un système multiGPU, ce n’est pas le cas de la quantité de mémoire. Deux cartes Les mémoires ne s’additionnent pas en multiGPU. 256 Mo ne sont pas l’équivalent d’une carte équipée de 512 Mo. La raison est que toutes les données doivent être dupliquées dans la mémoire de chaque carte graphique.

Mode SFR.

Autrement dit, si les performances sont limitées par la pression sur la mémoire, rien ne sert d’investir dans un système multiGPU qui ne réglera pas le problème de performances et au contraire, qui pourra l’amplifier puisque la consommation de mémoire vidéo augmente. Oubliez donc les GeForce 8800 GT 256 Mo, les GeForce 8800 GTS 320 Mo et les Radeon HD 3850 256 Mo pour de tels systèmes !

culée en mode SFR, elle devra être répliquée au complet dans la mémoire de chaque GPU. Des détails souvent difficiles à gérer efficacement pour garantir performances et qualité à travers une bonne synchronisation.

Mode AFR

Les fabricants sont d’ailleurs plutôt discrets (ou donnent une réponse allant dans le sens du vent mais pas de la technique) sur ces détails. Du coup, avec les solutions tri et quad GPU, il est difficile de savoir ce qui se passe. Même si une connectique spéciale doit être en place pour l’activation du mode multiGPU, cela ne veut pas dire qu’elle est utilisée pendant le rendu.

AFR de SFR en quad SLI.

quatre images vont être calculées en même temps, des problèmes de synchronisation peuvent se produire ainsi que des tas d’autres difficultés lorsque le calcul d’une image se base sur la précédente. Le ou les GPU « esclaves » envoient leur partie du travail, soit un morceau d’image soit une image complète au GPU « maître » qui va se charger de recomposer l’image complète ou d’afficher les

images calculées successivement par tous les GPU. Les transferts se font via le bus PCI-Express ou mieux, via une connectique SLI ou CrossFire dédiée plus efficace. Tout n’est cependant pas aussi simple qu’il n’y paraît puisque les transferts entre cartes restent complexes et des échanges de données intermédiaires peuvent parfois intervenir dans tous les sens : par exemple, si une réflexion sur un miroir est cal-

Un autre mode de rendu existe chez nVidia et est spécifique au quad SLI : l’AFR de SFR. Les GPU travaillent par paire en SFR sur une image sur deux. Par exemple, les GPU 1 et 2 vont calculer ensemble les images impaires et le GPU 1 va les assembler. Les GPU 3 et 4 vont, eux, calculer les images paires que le GPU 3 va assembler. Du coup, les transferts sont simplifiés et une fois les images calculées, seul le GPU 3 doit communiquer avec le GPU principal.

PC Update

I 75


Dossier La plate-forme

Quel était le problème du quad SLI ? Sous le feu des critiques, nVidia avait bien dû finir par répondre sur l’échec du quad SLI. Comme à son habitude et avec arrogance, nVidia a alors déporté la faute sur Windows XP qui ne permettait pas d’exploiter le mode AFR en quad SLI. En cas de problème, ce n’est bien entendu jamais de la faute de nVidia. Si nous ne nions pas qu’il peut y avoir un certain nombre de challenges à relever liés à un système d’exploitation particulier, nVidia avait malgré tout annoncé ce mode AFR comme fonctionnel et le mode AFR de SFR comme étant la parade parfaite à ce genre de problèmes puisqu’il était censé être automatiquement compatible quand l’AFR avec deux GPU fonctionnait, ce qui était souvent le cas. Selon nous, l’explication est tout autre. D’une part, nVidia avait négligé la somme de travail nécessaire pour développer un driver multiGPU à la hauteur et avait lancé le quad SLI avant d’avoir une visibilité à ce niveau. Tout cela dans le but de jouer à celui qui a la plus grosse et de trouver des justifications pour amener certains grands fabricants tels que Dell à opter pour sa plate-forme haut de gamme complète. D’autre part, les GeForce 8 et Windows Vista approchaient à grands pas, et représentaient une masse de développement énorme et bien plus importante que du quad SLI pour une génération de cartes graphiques en fin de vie. La conclusion est simple… Aujourd’hui, la situation a évolué, le multiGPU est là depuis un bon moment déjà et le passage à Windows Vista a permis le développement d’un nouveau pilote, plus propre. Le revers de la médaille, c’est que les développements pour Windows XP sont limités. Ainsi tri

76

I PC Update

et quad GPU sont réservés au dernier OS en date tant chez nVidia que chez AMD. Windows Vista a reçu qui plus est plusieurs mises à jour spécifiques au multiGPU, preuve de l’intérêt de Microsoft en la matière. Il faudra donc veiller à les installer ou à installer le SP1 qui les inclut. AMD, de son côté, a lancé son nouveau pilote multiGPU au mois de mars en renommant au passage sa technologie en CrossFire X, de manière à faire la différence avec le CrossFire de Windows XP, qui bénéficie d’un logiciel moins avancé. En plus du tri et du quad GPU supportés d’une manière très flexible, ce driver permet de supporter le multi-écran en mode multiGPU, ce qui est une première. Il serait tant que nVidia se donne la peine d’en faire de même !

Le quad SLI et les GeForce 7950 GX2 ou le multiGPU qui ne fonctionne pas…

Les systèmes multiGPU sont intimement liés à la plate-forme, tout d’abord parce que pour utiliser plusieurs cartes graphiques, il faut… plusieurs ports graphiques sur la carte mère. Ensuite, parce que les fabricants intègrent des limitations virtuelles dans leurs pilotes de manière à empêcher « leur » multiGPU de fonctionner sur les chipsets concurrents. Un moyen d’obliger d’acheter l’ensemble de leurs produits. ATi et maintenant AMD ont cependant accepté d’ouvrir le CrossFire aux chipsets Intel. Le CrossFire est donc fonctionnel sur les chipsets P965, P35, 975X, X38 et sur la plate-forme Skulltrail. Notez cependant que les performances sont plutôt mauvaises sur P965 et sur P35 compte tenu du fait que le second port PCI-Express y est géré par le southbridge. AMD fait par contre l’impasse sur les chipsets nVidia étant donné qu’il se bute à refuser l’utilisation du SLI sur d’autres chipsets et ne le fait que quand le fabricant accepte de placer des switchs nForce 100 ou nForce 200 en plus du chipset Intel par exemple, comme c’est le cas sur la plate-forme Skulltrail qui intègre deux puces nForce 100 pour gérer quatre ports PCI-Express 1.1. Celles-ci sont cependant inutiles, nVidia forçant leur utilisation de manière à faire preuve d’un peu d’ouverture quand c’est obligatoire, tout en décourageant la généralisation de la compatibilité SLI sur les autres plates-formes.


Skulltrail : la plate-forme multiGPU ultime ? Company of Heroes Ͳ 2560x1600 AA4x 159,5

9800 GX2 x2 9800 GX2 x2

120,9 105,2

9800 GX2

104,8 115,8

HD 3870 X2 x2

101 0 101,0 66,5

HD 3870 X2

58 1 58,1 51,6

Gain Quad SLI

15,4 , 74,1

Gain Quad CrossFire

73,8 0,0

20,0

40,0

60,0

nForce 790i / X38

80,0

100,0

120,0

140,0

160,0

180,0

Skulltrail est sur le papier une plate-forme très intéressante puisque censée être la première compatible à la fois avec le SLI et avec le CrossFire X. Bien entendu, les deux Core 2 QX9775 (quad core à 3,2 GHz) et donc les huit cores CPU sont peu utiles pour les jeux, mais tant qu’à faire dans le haut de gamme, pourquoi se priver ? Si les résultats en quad CrossFire X sont corrects, malgré un niveau de performances global légèrement plus bas, ce n’est pas le cas en quad SLI, les gains étant étrangement très limités. En plus d’obliger Intel à utiliser des puces qui ne servent à rien sur sa carte mère, nVidia semble traîner la patte pour fournir des performances dignes de ce nom…

Skulltrail

Les systèmes Voici trois exemples de platesformes qui représentent des combinaisons graphiques haut de gamme :

Radeon HD 3870 X2 : quad CrossFire X

GeForce 8800 Ultra : triSLI

GeForce 9800 GX2 : quad SLI

Seuls les chipsets nForce 680i, 780i et 790i supportent le triple SLI (en photo, le 780i), tout comme seules les GeForce 9800 GTX et les anciennes GeForce 8800 GTX et Ultra peuvent l’exploiter. Deux connecteurs SLI sont en effet nécessaires par carte. Tous les ports ou presque sont bouchés ainsi que l’accès à une grosse partie de la carte mère. Un connecteur triple SLI spécial est nécessaire, il est livré avec les cartes mères nForce 780i/790i mais devra être acheté à part (10 euros) si vous comptez utiliser du nForce 680i.

Ce système ultime, tout du moins sur le papier, repose ici sur une carte mère nForce 790i, l’Asus Striker II. Il n’a besoin que de deux ports PCI-Express et est donc compatible avec toutes les cartes mères SLI. Attention cependant au connecteur SLI puisque certains sont incompatibles avec les GeForce 9800 GX2 du fait de sa coque. La connexion ne se fait pas bien avec les connecteurs durs, trop plats. Mieux vaut disposer d’un connecteur souple qui permet de contourner la coque plus facilement, l’idéal étant qu’il soit long pour ne pas être en contact direct avec celle-ci, étant donné que l’air chaud est éjecté de la carte au niveau du connecteur et pourrait donc le faire fondre (ça nous est arrivé).

Puissance de calcul : 1 161,3 Gflop/s Débit de filtrage : 117,6 Gtexel/s Bande passante : 289,7 Go/s

Puissance de calcul : 1 536 Gflop/s Débit de filtrage : 153,6 Gtexel/s Bande passante : 238,4 Go/s

Radeon HD 3870/X2 : triCrossFire X

Ce système CrossFire X repose sur une plate-forme Intel, n’en déplaise à AMD, qui ne propose pas de CPU très intéressant pour les joueurs qui recherchent un maximum de performances. La carte mère Asus P5E3 qui embarque un chipset X38 prend en charge une Radeon HD 3870 X2 et une Radeon HD 3870 reliées via un connecteur CrossFire. Puissance de calcul : 1 552 Gflop/s Débit de filtrage : 38,8 Gtexel/s Bande passante : 174,4 Go/s

Plate-forme ultime, Skulltrail accueille bien volontiers ces deux Radeon HD 3870 X2 reliées via un connecteur CrossFire. Il faudra cependant éviter de regarder la note si vous décidez d’opter pour un tel système octocore et vous accommoder du bruit et de la consommation qui sont très élevés. Puissance de calcul : 2 112 Gflop/s Débit de filtrage : 52,8 Gtexel/s Bande passante : 214,6 Go/s

PC Update

I 77


Dossier

Performances N

ous avons mesuré les performances sous Windows Vista 32 bits avec un Core 2 Extreme QX9770 et 2 Go de mémoire DDR3, le tout sur une Asus P5E3 (X38) pour les solutions ATi/AMD et sur une Asus Striker II (nForce 790i) pour les solutions nVidia. Nous avons opté pour le 1 920 x 1 200 et pour le 2 560 x 1 600 de manière à charger ces systèmes qui visent de très hautes résolutions. Nous avons bien entendu activé une qualité élevée dans tous les jeux ainsi que le filtrage anisotrope dans tous ceux qui le proposent. Crysis a été testé avec son patch 1.2 qui apporte des améliorations liées au multiGPU.

Rainbow Six Vegas

Quake Wars 132,3 126,6

9800 GX2 x2 9800 GX2

124,9

87,9

123 0 123,0 114,6

8800 Ultra x3 8800 Ultra x2

133,1

90,6

8800 Ultra

85,9

57,4

HD 3870 X2 x2 HD 3870 X2 x2 HD 3870 X2 + HD 3870

56,4

HD 3870 X2 HD 3870 0,0

20,0

40,0

60,0

1920x1200

8800 Ultra x3 8800 Ultra x2

100,0

120,0

30,5

8800 Ultra x3

120,8

96,8

8800 Ultra x2

112 1 112,1

HD 3870 X2 + HD 3870

143,6 130,4

89,3

I PC Update

120,0

140,0

9800 GX2 x2

108,4 108,4

9800 GX2

108,2 101,4

160,0

111 7 111,7 108,8 118,3 111,8

101,1 99,4

HD 3870 X2 x2 HD 3870 X2 x2

103,8 101,8 91,7

HD 3870 80,0

2560x1600

100,0

120,0

97,3

62,3

HD 3870 X2

63,3 60,0

100,0

HD 3870 X2 + HD 3870

105,0

70,4

40,0

80,0

2560x1600

8800 Ultra 103,1

1920x1200

60,0

8800 Ultra x2

88,6

57,8

20,0

40,0

8800 Ultra x3

115,1

92,3

HD 3870 X2 x2 HD 3870 X2 x2

78

104,8

91,0

0,0

20,0

51,0

Oblivion

9800 GX2

40,1

102,6

61,8

1920x1200

91,2

HD 3870

140,4

89,2

0,0

140,0

145,5

100,6

Half Life 2 Episode 2

HD 3870 X2

52,4

37,1

2560x1600

9800 GX2 x2

8800 Ultra

95,4

71,6

HD 3870 80,0

127 7 127,7

94,9

HD 3870 X2

63,1

39,9

86,6

58,5

HD 3870 X2 + HD 3870

85,2

57,0

9800 GX2

HD 3870 X2 x2 HD 3870 X2 x2

80,3

118,8

95,2

8800 Ultra

81,8

54,2

9800 GX2 x2

140,0

160,0

53,0 0,0

20,0

40,0

1920x1200

60,0

2560x1600

105,7

80,1 80,0

100,0

120,0

140,0


Bioshock

Crysis 9800 GX2 x2

59,3

16,1

9800 GX2

49,4

22,6

8800 Ultra x3

60 9 60,9

8800 Ultra x2 17,8

HD 3870 X2 x2 HD 3870 X2 x2

5,8

HD 3870 X2 + HD 3870

8800 Ultra

29,4

HD 3870 X2 x2 HD 3870 X2 x2

33,4

HD 3870 X2 HD 3870 0,0

10,0

20,0

40,0

50,0

60,0

70,0

251,3

150,0 200,3

117,1 132,2

86,3

HD 3870 30,0

1920x1200

96,6

57,9

HD 3870 X2

20,2

12,0

155,1

98,9

HD 3870 X2 + HD 3870

29,7

13,6

225 6 225,6

149,3

8800 Ultra x2

29,2

5,9

140,3

83,3

8800 Ultra x3

52,3

34,4

213,9

138,3

9800 GX2

20,1

8800 Ultra

9800 GX2 x2

69,8

40,2 0,0

50,0

2560x1600

100,0

150,0

1920x1200

200,0

250,0

300,0

2560x1600

Performances avec antialiasing

L

’antialiasing 4x est activé dans chaque jeu, à l’exception d’Oblivion pour lequel nous l’activons via le panneau de contrôle des pilotes. Colin McRae DIRT est testé uniquement avec antialiasing, puisque le jeu est horrible sans ce filtre.

Quake Wars Ͳ FSAA 4x

Colin McRae DIRT

9800 GX2 x2

117,5

83,5

9800 GX2

89,7

57,7

8800 Ultra x3

92,8

8800 Ultra x2

HD 3870 X2 + HD 3870 HD 3870 X2 HD 3870

26,1 0,0

20,0

40,0

80,0

100,0

120,0

140,0

0,0

101,0

40,0

50,0

60,0

70,0

80,0

2560x1600

109 7 109,7

8800 Ultra x2

105,2

70,4

101,1 99,0

HD 3870 X2 + HD 3870 68,9

60,0

2560 AA4x

100,0

120,0

111,4

74,4 96,1

64,0 48,8

HD 3870 80,0

67,2

43,4

HD 3870 X2

58,1

105,1

74,5

HD 3870 X2 + HD 3870

98,3

106 4 106,4

85,1

HD 3870 X2 x2 HD 3870 X2 x2

102,6

89,7

HD 3870 X2

8800 Ultra x3

8800 Ultra

HD 3870 X2 x2 HD 3870 X2 x2

95,7

66,3

8800 Ultra x2

62,6

38,1

96,8

76,3

9800 GX2

94,2

40,0

30,0

9800 GX2 x2

97,4

8800 Ultra x3

1920 AA4x

20,0

1920x1200

68,1

20,0

10,0

Half Life 2 Episode 2 Ͳ FSAA 4x

9800 GX2

0,0

28,8

18,5

2560 AA4x

90,8

37,1

52,6

34,0

Oblivion Ͳ FSAA 4x

HD 3870

64,8

47,5

HD 3870 60,0

70,3

54,7

HD 3870 X2

9800 GX2 x2

8800 Ultra

41,4

26,3

HD 3870 X2 + HD 3870

40,7

1920 AA4x

68,0

HD 3870 X2 x2 HD 3870 X2 x2

59,0

39,2

66 8 66,8

46,5

8800 Ultra

56,7

33,4

59,7

8800 Ultra x2

57,6

30,7

64,0

31,1

8800 Ultra x3

64,8

41,9

HD 3870 X2 x2 HD 3870 X2 x2

112 0 112,0

61,6

53,6

9800 GX2

111,3

74,8

8800 Ultra

9800 GX2 x2

28,5 0,0

20,0

40,0

1920 AA4x

74,3

42,6 60,0

80,0

100,0

120,0

2560 AA4x

PC Update

I 79


Dossier

Performances en DirectX 10

L

es jeux capables d’exploiter la nouvelle API arrivant, nous ne pouvions pas ne pas nous y attarder. A l’exception de Company of Heroes, le mode DirectX 10 n’apporte pas réellement de nouveaux effets graphiques dans ces jeux et se contente, dans le meilleur des cas, d’en peaufiner certains. Notez que dans le cas de Crysis, nous avons augmenté la qualité en mode très élevé pour les tests en DirectX 10. Le quad SLI a fait planter Company of Heroes et World in Conflict en mode DirectX 10.

World in Conflict DirectX 10

Crysis DirectX 10 9800 GX2 x2

35,0

1,0

9800 GX2

23,8

1,1

8800 Ultra x3

9800 GX2 36 1 36,1

7,2

8800 Ultra x2

29,9

12,2

8800 Ultra HD 3870 X2 x2 HD 3870 X2 x2 HD 3870 X2 + HD 3870

22,6

HD 3870 0,0

5,0

10,0

15,0

20,0

25,0

30,0

35,0

40,0

0

5

8800 Ultra x3

205,7

1920 DX10

I PC Update

35

40

45

50

100,0

2560 DX10

200,0

250,0

95,3

63,4 52,1

32,6

84,8

60,9

83,3

57,7 62,6

40,6

HD 3870 150,0

109 2 109,2

85,2

HD 3870 X2

82,4

91,7

8800 Ultra x3

HD 3870 X2 + HD 3870

134,3

77,7

50,0

30

58,1

HD 3870 X2 x2 HD 3870 X2 x2

178,2

116,0

0,0

25

2560 DX10

0,0 0,0

8800 Ultra 137,9

51,6

20

8800 Ultra x2

100,9

HD 3870 X2 x2 HD 3870 X2 x2

80

231 7 231,7

160,3

96,7

HD 3870 X2 + HD 3870

15

9800 GX2

159,4

HD 3870

9800 GX2 x2

169,8

102,5

HD 3870 X2

10

Company of Heroes DirectX 10 211,4

143,8

53,3

23

14

1920 DX10

9800 GX2 x2

8800 Ultra

34

16

Bioshock DirectX 10

8800 Ultra x2

42

23

2560 DX10

9800 GX2

45

19

HD 3870

1920 DX10

35

23

HD 3870 X2

11,5

3,2

44

35

HD 3870 X2 + HD 3870

17,7

0,6

45

36

HD 3870 X2 x2 HD 3870 X2 x2

23,9

0,0

HD 3870 X2

8800 Ultra x3

8800 Ultra

0,0

41

28

8800 Ultra x2

16,2

8,9

0 0

9800 GX2 x2

23,1 0,0

20,0

34,6 40,0

1920 DX10

60,0

2560 DX10

80,0

100,0

120,0


Convaincu par le multiGPU ?

A

u vu des performances affichées, force est de constater que les gains sont bel et bien là, tout du moins en général puisqu’il reste toujours des situations dans lesquelles le multiGPU pose problème et n’apporte pas de performances supplémentaires. Dans d’autres cas, le niveau de performances est déjà tellement élevé avec un seul ou avec deux GPU que les 3e et 4e ne peuvent rien apporter de plus. La solution la moins fiable actuellement est le quad SLI proposé par nVidia en couplant deux GeForce 9800 GX2.

Le quad SLI sur Skulltrail est encore moins convaincant que sur chipsets nVidia.

Autant les progrès sont indéniables par rapport à la première version du quad SLI apparue il y a 2 ans, autant nous avons dû faire face à plusieurs problèmes. Tout d’abord, des plantages dans certains jeux. Ensuite, des performances très souvent limitées par le manque de mémoire puisque ce système ne dispose en pratique que de 512 Mo et que l’architecture GeForce 8/9 a du mal quand cette quantité est dépassée. Autant le CrossFire X nous a agréablement surpris par sa flexibilité qui permet de nombreuses associations de cartes, supporte plusieurs plates-formes et rend enfin possible l’utilisation de plusieurs écrans sur de tels systèmes, autant certains résultats nous rappellent que le Radeon HD 3870 n’est pas un GPU haut de gamme, notamment dans Crysis. Du coup, le quad CrossFire ne peut pas rivaliser avec le quad SLI ou avec le triSLI en termes de performances. Reste donc le triSLI de GeForce 8800 Ultra qui représente, selon

L’écran 30” de Dell, une des raisons qui poussent à se tourner vers le multiGPU.

nous, la solution actuelle la plus performante en pratique, grâce à deux choses. Tout d’abord, la présence de 768 Mo de mémoire par GPU est très utile, ensuite il est plus facile d’exploiter trois GPU que quatre. Malheureusement, ces cartes ne sont plus commercialisées, consomment beaucoup et requièrent une plate-forme très particulière pour le triSLI. Au final, nous conseillerons aux plus courageux et pressés d’essayer de dénicher trois GeForce 8800 GTX 768 Mo si vous désirez un système le plus performant possible. Pour les autres… attendez le mois de juin !

CrossFire X et flexibilité Ces mesures de consommation représentent l’ensemble du système. La différence entre repos et charge ne concerne pas que la carte graphique puisque le CPU se retrouve lui aussi saturé. Il ne faut donc pas comparer ces deux mesures pour se faire une idée de la consommation d’une carte graphique, mais bien comparer les consommations relatives entre les différentes solutions d’un côté au repos et de l’autre en charge. Le triple SLI bat ici des records : au repos, chacune des GeForce 8800 Ultra consomme 100 W… pour rien.

Consommation du système (Watts) 9800 GX2 x2

681

320

9800 GX2

468

236

8800 Ultra x3

844

423

8800 Ultra x2

639

333

8800 Ultra

445

238

HD 3870 X2 x2 HD 3870 X2 x2

677

262

HD 3870 X2 + HD 3870

568

229

HD 3870 X2

467

196

HD 3870

337

156 0

100

200

300

400

500

600

700

800

Pourquoi ne pas désactiver les GPU qui ne servent à rien ? C’est ce que Charge Repos nVidia va permettre de faire avec Hybrid Power et les GeForce 9800 GTX et GX2 qui pourront être désactivées… mais uniquement sur une carte mère équipée d’un core graphique intégré et malheureusement d’une manière peu ergonomique au départ puisqu’il faudra activer/désactiver le « vrai » système graphique manuellement avant et après le lancement d’un jeu.

900

PC Update

I 81


Pratique

Controler un PC a distance

Pratique pour dépanner et piloter un PC en LAN ou par Internet, la prise de contrôle à distance est un procédé simple à mettre en oeuvre. Il suffit d’avoir les bons outils et quelques connaissances que nous détaillons dans ce guide. Jeremy Panzetta

S

i vous êtes le spécialiste informatique de la famille et de votre entourage, vous devez certainement passer du temps à répondre à leurs questions et à les assister en cas de problèmes avec leur machine. Puisqu’il n’est jamais pratique de passer des heures au téléphone ou sur MSN pour essayer de

82

I PC Update

se faire comprendre, le moyen le plus efficace pour dépanner quelqu’un à distance est de prendre le contrôle de sa machine afin d’identifier soi-même le souci. Mais cette prise de contrôle en réseau s’adapte à bien d’autres types d’usages puisqu’il devient possible de piloter et d’administrer n’importe quelle machine depuis n’impor-

te quel endroit. Le procédé est aussi très utile en local afin d’accéder à un serveur de fichiers, ou un serveur Web, qui ne possède pas de clavier, de souris ni de moniteur. Nous avons choisi de détailler quatre procédés de prise de contrôle à distance efficaces. Le premier se base sur les outils


n e

Windows Live Messenger intègre une fonction d’assistance à distance mais malgré tous nos efforts, elle n’a pas fonctionné sur tous nos PC.

intégrés de Windows, les trois autres sur des logiciels gratuits proposant un système de communication différent. Ces freewares offrent l’essentiel des fonctionnalités nécessaires, pas besoin d’acheter un logiciel à moins

d’avoir des besoins plus précis. Les applications payantes peuvent proposer un niveau de sécurité et de cryptage plus élevé, le support de plates-formes variées (Linux, MAC, PDA, Pocket PC) ou des outils d’administration avancés.

Pratique I : Les outils Windows

W

indows XP Pro et Vista (sauf Edition Familiale) intègrent déjà des outils pour prendre

le contrôle d’un PC via le réseau. Sous XP, les paramètres de configuration se trouvent dans les propriétés du poste de travail, à l’onglet Utilisation à distance.

Sous Vista, il faut ouvrir les propriétés de l’ordinateur puis cliquer sur Paramètres d’utilisation à distance pour accéder à cet onglet. Vous n’avez besoin de configurer que le PC à contrôler. Dans le menu Bureau à distance, sous XP, cochez la case Autoriser les utilisateurs

PC Update

I 83


Pratique Pour autoriser l’accès d’un utilisateur, cliquez sur Sélectionner des utilisateurs puis sur Ajouter. Tapez son nom dans la case dédiée ou cliquez sur Avancé/Rechercher pour trouver une liste de tous les comptes de votre machine.

Identifier ses IP Il existe plusieurs moyens de connaître l’IP locale de ses PC, à commencer par la commande « ipconfig /all » à entrer dans une invite de commandes (Démarrer/Exécuter). Elle se trouve aussi dans le statut de la connexion, via l’icône Réseau placée dans la barre des tâches de Windows (ou dans le menu de Connexion réseau). Vous y trouverez également l’adresse physique, ou adresse MAC, de votre carte réseau. Autrement, certains outils logiciels comme Advanced IP Scaner (www.radmin.com) restent pratiques pour identifier les IP de tous les PC de votre réseau local. Afin d’identifier son IP publique Internet, vous pouvez entrer dans votre box/routeur, ou passer simplement par des sites Web comme www. whatismyip.org, http://whatismyip. com ou encore www.ip-adress.com, affichant votre IP dès que vous arrivez sur la page Web. Afin d’ouvrir le port d’un routeur ou d’une box FAI, vous devez entrer dans sa page d’administration. Chez Free, l’accès s’effectue via le site Internet. Pour les autres, le plus simple est de taper l’IP de son routeur dans un navigateur Internet. Au menu appelé

La connexion avec le PC client se lance avec l’utilitaire placé dans Démarrer/Accessoires/Connexion bureau à distance. Dans la case Ordinateur, entrez le nom ou l’IP du PC local à contrôler, ou son IP publique/ Internet si vous passez par le Net. Un nom d’utilisateur et un mot de passe sont alors demandés si la connexion est établie. Entrez les données d’un compte d’utilisateur du PC distant. Une nouvelle fenêtre s’ouvre dans laquelle vous pouvez visualiser le bureau du PC distant et le contrôler. Avec ce procédé, vous n’avez pas besoin de configurer le parefeu de Windows, mais ce ne sera sûrement pas le cas d’un pare-feu alternatif. Dans le cas d’une connexion via Internet, il faudra également configurer le routeur du PC distant pour rediriger le port vers l’IP locale du bon PC. Par défaut, le port utilisé par cet outil Windows est 3389 mais il est possible d’en utiliser un autre en ajoutant le numéro du port après l’adresse IP (192.168.1.1:3390, par exemple). Si vous sentez que la connexion et l’affichage sont lents, réglez les paramètres du bureau à distance. A l’onglet Affichage, réduisez le nombre de couleurs, puis utilisez les profils de performances disponibles à l’onglet Avancé. Serveur LAN, ou encore Règles de pare-feu, créez un nouveau service dans lequel vous devrez préciser le numéro de port, l’IP locale du PC sur lequel ce port doit être dirigé et le protocole UDP ou TCP. Si votre IP Internet n’est pas fixe comme chez Free, vous pouvez utiliser les services du site www.dyndns.com pour relier votre IP Internet dynamique à un nom de domaine permanent. Inscrirez-vous sur le site puis choisissez un nom de domaine dans la page de configuration. Paramétrez ensuite votre routeur en entrant votre login et mot de passe DynDNS dans le menu de configuration DynDNS. Si le routeur ne supporte pas cette fonction, utilisez le logiciel DynDNS Update pour qu’un PC envoie régulièrement la mise à jour de votre IP au service DynDNS.

à se connecter à distance à cet ordinateur. Sous Vista, sélectionnez la deuxième option, ou la troisième si le PC allant prendre le contrôle est aussi sous Vista. La deuxième étape consiste à autoriser l’accès à certains utilisateurs. La connexion au PC distant n’est possible que si vous utilisez un nom/mot de passe déjà enre-

84

I PC Update

gistré dans un de ses comptes. Naturellement, le client ne possédera que les droits attribués au compte associé. Un compte administrateur est le seul à pouvoir copier/ coller des fichiers à partir du PC distant. Le compte utilisé devra également avoir un mot de passe (pour ajouter ou modifier des comptes, allez dans Démarrer/Panneau de configuration/Comptes d’utilisateurs.)

II : RealVNC (www.realvnc.com) VNC est depuis longtemps un logiciel référence pour prendre le contrôle d’un PC distant. Il fonctionne avec un principe de client/ serveur, ce qui impose l’installation de l’outil serveur sur le PC distant et l’usage du client sur le PC servant à contrôler. Durant l’installation du serveur, l’assistant vous donne le choix de l’installer en tant que service Windows. Cette option est pratique dans


le cas d’un besoin de prise de contrôle régulier du PC, le service VNC se lancera automatiquement avec le système et

sera accessible même si aucune session Windows n’est ouverte. Une fois l’installation terminée, lancez la configuration du serveur VNC. Le seul paramètre important à définir est le mot de passe, il n’est pas nécessaire de modifier les autres options. Pour contrôler le PC distant, vous pouvez utiliser le simple viewer de VNC et non pas l’installateur. Lancez l’outil et entrez l’IP (locale ou Internet) du PC à contrôler. Si la connexion est établie, après avoir entré le mot de passe, la fenêtre de visualisation du bureau distant devrait apparaître. Notez que VNC utilise le port 5900, vous devez donc configurer votre routeur correctement. Il est possible de le changer dans les options de l’utilitaire serveur.

III : TeamViewer (www.teamviewer.com) Contrairement à VNC qui impose la notion de client/serveur, TeamViewer passe par un serveur tiers pour connecter les deux PC considérés comme des clients. Le logiciel doit donc s’installer sur les deux machines et a l’avantage de ne pas nécessiter de configuration réseau. Il est possible de lancer le logiciel sans l’installer mais toutes les fonctionnalités ne seront pas accessibles. A l’installation, vous pouvez choisir de lancer l’application en même temps que Windows et d’entrer un mot de

PC Update

I 85


Pratique utiles se trouvent au menu Paramètres/ Options. A l’onglet Général, vous pouvez configurer des règles de proxy et cocher la case Accepter les connexions LAN entrantes afin d’entrer l’IP d’un PC en réseau local, plutôt que de passer par un ID. Les onglets Contrôle à distance et Présentation possèdent d’autres paramètres d’affichage qui dépendent de la réactivité de la connexion, l’onglet Sécurité peut définir les modes d’accès au PC autorisés.

IV : LogMeIn (www.logmein.com) Gratuit lui aussi, LogMeIn est un outil de contrôle à distance astucieux fonctionnant sur PC et Mac. Pas besoin de logiciel client, ce dernier prend le contrôle à partir d’un navigateur Internet. La seule chose à faire est de s’inscrire pour télécharger l’utilitaire devant être installé sur le PC à contrôler. Lors de l’installation, choisissez le mot de passe qui sera utilisé à chaque connexion de ce PC distant, puis entrez vos identifiants d’inscription LogMeIn en sélectionnant LogMeIn Free.

passe fixe pour la session TeamViewer initialisée au démarrage. Le logiciel générant un mot de passe pour chaque nouvelle connexion à distance, cette fonction est utile si vous installez le logiciel s ur un serveur de fichiers, par exemple. Si vous souhaitez utiliser la fonction VPN du logiciel, cochez aussi la case adéquate. La fenêtre principale de TeamViewer est succincte mais regroupe l’essentiel. A gauche, sont indiqués le numéro d’identification et le mot de passe nécessaires pour qu’un PC distant puisse se connecter. La case de droite permet d’entrer le numéro d’identification d’un PC distant auquel se connecter, en choisissant une prise de contrôle totale, une présentation de votre bureau, un transfert de fichiers ou la création d’un réseau privé virtuel (VPN). S’il s’agit d’une connexion par Internet, le correspondant devra donc vous communiquer ses identifiants. En sélectionnant l’assistance à distance et après avoir entré le mot de passe, le bureau de l’ordinateur réseau apparaît.

86

I PC Update

Le menu supérieur donne accès au transfert de fichiers, à la qualité d’affichage, au chat ou au basculement du contrôle entre les deux PC. Quelques paramètres

Ensuite, de n’importe quel autre PC, pour contrôler le PC distant, il faut aller sur www.logmein.com et vous connecter pour accéder au menu d’administration général. Il vous sera demandé d’installer un contrôle ActiveX à partir du navigateur Internet. Au menu Mes ordinateurs, il devrait apparaître le ou les PC sur lesquels LogMeIn a été installé. Pour ajouter un PC à contrôler, vous pouvez aussi passer par la fonc-


Allumer un PC à distance (Wake On LAN) Allumer un PC à distance impose quelques prérequis matériels. Il faut en effet que la carte réseau et la carte mère supportent cette fonction de réveil en réseau. Il est également nécessaire de bien configurer le BIOS de la carte mère et d’activer l’ACPI (appelé IPCA parfois). Dans la section Power Management, vous devriez trouver une option appelée Power Off State ou ACPI Suspend Type ou ACPI State, elle doit être placée sur S3/STR. Cherchez aussi un paramètre appelé Wake On LAN ou parfois PME (Power Management Event) et activez-le. Vérifiez dans le gestionnaire de périphériques Windows que le ou les paramètres associés au Wake On LAN sont bien actifs dans les propriétés de la carte réseau. Pour réveiller le PC à distance, il suffit ensuite de passer par un petit utilitaire comme Wake On LAN (www.depicus.com, WoL for Windows). Dans la case MAC Adress, entrez l’adresse MAC de la carte réseau du PC à réveiller. Dans la case suivante, entrez l’IP locale du PC distant ou son IP/URL Internet et le masque réseau 255.255.255.255 s’il s’agit d’une IP Internet. Placez le paramètre Send Option sur Internet ou Local, selon que l’envoi du paquet magique doit se faire via Internet ou le réseau local. Entrez enfin le numéro de port 7 ou 9 et cliquez sur Wake Me Up pour lancer le réveil de l’ordinateur distant. Il faudra peut-être diriger le port de votre routeur vers ce PC distant s’il ne supporte pas de base la fonction Wake On LAN. Le protocole utilisé est l’UDP. Une autre solution pour envoyer des paquets magiques est de passer par un service en ligne comme en propose aussi le site de Wake On LAN. Allez au menu WoL Over The Internet et entrez les mêmes informations requises. Vous trouvez un autre outil online sur www.rshut.com/products/wol, pas besoin ici de connaître le masque de sous-réseau.

tion Ajouter un ordinateur qui lance le téléchargement automatique de l’application. Au menu Utilisateurs, il est possible de créer des groupes d’utilisateurs et d’inviter des amis à prendre le contrôle de vos différents PC, sous certaines conditions d’accès à définir. Ces utilisateurs devront être inscrits sur le site LogMeIn, l’invitation s’effectue par l’envoi d’un e-mail. Le logiciel installé sur les PC dispose aussi d’un menu de configuration. Vous y trouverez des paramètres réseau supplémentaires, les conditions de contrôle d’accès et de sécurité du PC ainsi qu’une rubrique d’aide complète. Si vous en avez besoin : par défaut, LogMeIn utilise le port 2002 mais il est possible de le modifier.

PC Update

I 87


Pratique

Boostez votre

distribution

Manuel Da Costa

Linux

Si la compilation d’un noyau Linux a tout d’un passe-temps de geek, il constitue aussi une étape indispensable pour améliorer son système. Alors pourquoi ne pas optimiser votre distribution Linux en compilant votre noyau ?

U La mise à jour du noyau via le gestionnaire de paquetages n’est autre qu’un nouveau noyau générique. Ce dernier n’est donc pas optimisé pour votre configuration.

e noyau, ou kernel, est le coeur du système assurant l’interaction entre vous, vos applications et votre matériel. Il est composé d’une partie statique à laquelle peuvent être dynamiquement greffés des modules. C’est cette partie statique qui est utilisée lors du démarrage de votre ordinateur et qui reste chargée en mémoire. Chaque distribution Linux embarquant un noyau générique, il est intéressant de pouvoir améliorer les performances de votre distribution en réduisant la taille de ce noyau et en optimisant ce dernier avec l’architecture de votre PC. Mais la compilation d’un noyau peut également permettre d’ajouter le support d’un nouveau composant ou périphérique, de corriger des bugs et des failles de sécurité,

ou encore d’ajouter de nouvelles fonctionnalités comme le support natif du cryptage WPA pour le Wi-Fi, par exemple.

Récupérer les sources du noyau Nous nous appuierons ici sur la distribution française Mandriva mais la méthode que vous allez découvrir reste, à quelques détails près, similaire pour la plupart des distributions Linux. Assurez-vous, pour

commencer, avant de rapatrier les sources de votre futur noyau, que les paquets gcc et make (compilateurs) sont bien installés à l’aide du gestionnaire de paquetages de votre distribution. Par convention, on interprète les numéros des versions de cette façon : <majeur>.<mineur>.<révision>. Où majeur est le numéro majeur de version, mineur la version en cours et révision le nombre de correctifs apportés. Pour compléter, un numéro mineur pair caracté-

La plupart des articles sur le Web recommandent à l’utilisateur de récupérer les sources officielles du noyau, avant de les enregistrer sous le répertoire /usr/src.

88

I PC Update


Nous vous conseillons toutefois de récupérer les sources de votre noyau sur une des sources HTTP ou FTP de votre distribution. Cette dernière corrige des bugs et apporte quelques améliorations qui sont propres à votre distribution.

carte mère), Networking (protocoles réseau), Kernel Hacking (options débugage), et Library Routines (bibliothèques communes du noyau) dont la configuration par défaut est plus que satisfaisante. Détaillons au contraire les sections « importantes », en retenant ceci : en cas de doute sur une option, abstenez-vous de toute modification hasardeuse. Demandez de l’aide sur les forums spécialisés, sans oublier de consulter les différentes bases de connaissances de votre distribution.

rise une version stable, contrairement au numéro mineur impair dédié aux versions de développement. Il est donc recommandé d’opter pour un noyau stable. De plus, si la plupart des tutoriaux sur le Web recommandent d’importer les sources du noyau à partir du site officiel www.kernel.org, nous vous conseillons au contraire de le faire à partir des sources HTTP ou FTP officielles de votre distribution. Chaque éditeur appliquant ses propres patchs qui corrigent bugs, failles de sécurité en plus d’apporter quelques améliorations qui sont propres à votre distribution. Pour cela, ouvrez une console, puis saisissez la commande su pour bénéficier des privilèges Administrateur, avant de conclure avec la commande urpmi kernel-headers kernel-source. Un répertoire Linux portant le numéro des sources récupérées sera alors créé dans /usr/src.

La configuration du noyau Avant d’aller plus loin, vous devrez installer les bibliothèques Qt, Gtk, ou ncurses suivant le gestionnaire de configuration noyau que vous souhaitez utiliser. Les deux premières permettent d’utiliser les interfaces graphiques Qt et Gtk (make gconfig). La dernière permet quant à elle d’utiliser une interface semi-graphique (make menuconfig). Nous avons choisi d’utiliser l’interface Qt à l’aide des commandes cd /usr/src/version du kernel (permet de se rendre dans le répertoire), puis make xconfig. Les configurations PC différant d’un utilisateur à l’autre, nous ne détaillerons volontairement pas toutes les options. Vous pourrez laisser telles quelles les sections General Setup, Loadable Module Support, Enable The Block Layer (entrées/sorties de votre

Processor Type And Features Pour assurer un niveau de performances optimal, il faut bien sûr choisir son architecture (PC compatible) et le type de son processeur (Core 2 Duo, Xeon, Athlon 64, K8, VIA C7, etc.). Suivant ce dernier, vous pourrez activer ou non le support multiCPU, l’option Generic x86 Support permettant quant à elle d’assurer la prise en charge de l’architecture x86, et qui n’est donc pas indispensable. Pour le reste, vous pourrez parcourir chaque option et faire votre sélection en fonction de votre configuration. Dans le cas d’un PC de bureau, il n’est, par exemple, pas utile de prendre en charge les notebooks Toshiba, Dell, l’EFI qui n’est pour l’instant pas disponible ailleurs que sur Mac. Quelle que soit votre machine, prenez soin d’activer les options Preemptible Kernel et High Memory Support 4 GB pour bénéficier d’un système plus réactif et capable de gérer entre 1 et 4 Go de mémoire.

Power Management Options Ce module requiert la plus grande prudence, l’ACPI restant encore le point noir de la plupart des distributions. Il est toujours possible de désactiver des options telles que le support des batteries, l’adaptateur secteur et quelques extra réservés aux constructeurs Pour une configuration plus conviviale de votre noyau, il est recommandé d’installer les librairies Qt3 pour utiliser l’interface graphique.

PC Update

I 89


Pratique

Sous Mandriva, l’outil Drakboot permet d’éditer graphiquement le fichier de configuration de Grub.

File Systems Medion, Asus et Toshiba si vous n’utilisez pas de notebook. Vous pourrez aussi paramétrer l’ajustement dynamique de la fréquence d’horloge suivant votre processeur (SpeedStep pour Intel, PowerNow ! pour AMD), mais évitez surtout de désactiver les options Video, Fan et surtout Thermal Zone. Vous risqueriez d’endommager vos composants en cas de surchauffe.

Pour bien faire, nous vous recommandons de compiler la majorité des systèmes de fichiers. Ceci afin de garantir la meilleure interopérabilité possible avec les autres machines, tout le monde n’utilisant pas Linux. Vous pourrez ainsi apporter le support natif du XFS, NTFS, FAT, MSDOS, HFS, ReiserFS, etc.

Compiler et installer le noyau Une fois les changements enregistrés, refermez l’interface de configuration et exécutez la commande make qui initiera la compilation de votre nouveau noyau, suivie de la commande make install qui créera, dans notre exemple, les fichiers System.2.6.23.16-1mdvcustom, config-2.6.23.16-1mdvcustom et vmlinuz-2.6.23.16-1mdvcustom (mdv pour Mandriva et custom pour compilation) dans le répertoire boot à la racine (/boot). Dans ce même répertoire, vous devrez créer le fichier image initrd, qui contient les paramètres de démarrage, à l’aide de la commande suivante :

mkinitrd /boot/ initrd.img-2.6.23.161mdvcustom.img 2.6.23.16-1mdvcustom Il ne reste plus qu’à éditer votre gestionnaire de démarrage Grub à l’aide de l’outil graphique Drakboot, si comme nous, vous êtes paresseux, ou bien via la commande vi /boot/ grub/menu.lst puis à ajouter les lignes suivantes : label Mandriva GNU/Linux, kernel 2.6.23.16-1 Default root (sd0,0) kernel /boot/vmlinuz root=/dev/sdb1 ro initrd /boot/initrd.img-2.6.23 savedefault boot sd représente ici notre premier disque SATA. Pour un disque IDE, utilisez au contraire hd. Quant à la ligne kernel où nous mentionnons sdb1, il correspond à la partition d’installation de Mandriva. Il ne vous reste plus qu’à redémarrer et à apprécier la réactivité de votre nouveau noyau.

Device Drivers Comme vous vous en doutez, cette section permet au noyau d’interagir avec votre matériel et donc de définir avec précision toutes les options liées à votre matériel. Il vous faudra, par conséquent, lui consacrer beaucoup d’attention et de temps, car s’il est toujours possible de désactiver des options jugées inutiles, comme la prise en charge d’un chipset nForce si vous utilisez celui d’Intel et bon nombre d’optimisations dédiées aux notebooks par exemple, il suffit de désactiver votre contrôleur IDE pour vous retrouver avec une distribution incapable de démarrer. La parfaite connaissance de votre matériel est ici indispensable. Une compilation peut prendre de quelques minutes à plusieurs heures.

90

I PC Update


Pratique Laurent Dilain

Les serveurs

proxy :

comment ça marche ?

HTTP SSL, SOCKS4, SOCKS5, reverse-proxy… ces nombreux termes reviennent dans la quasi-totalité des applications Internet afin d’exploiter des serveurs proxy. Comment fonctionne ce type de serveurs et surtout quelles peuvent être leurs utilités ?

U

n serveur proxy, ou serveur mandataire en français, permet de relayer des informations entre plusieurs appareils sur un réseau. Comme un site Web, le fonctionnement est de type client serveur : un ordinateur accède aux fonctions d’un proxy par l’intermédiaire d’une application qui est à l’écoute sur le réseau. Concrètement, à quoi sert un serveur proxy ? Il permet à un client qui veut accéder à des ressources réseau de passer par une machine tierce. Ainsi, par exemple, un navigateur

92

I PC Update

Web voulant accéder à un site Internet ne se connectera pas directement à celui-ci mais au serveur proxy qui fera lui-même la requête et transférera la réponse au client.

Les avantages d’un proxy : pour l’utilisateur et pour les fournisseurs d’accès Globalement, l’usage d’un serveur proxy possède plusieurs utilités. Dans un premier temps, il peut améliorer considérable-

ment les temps d’accès aux ressources réseau de deux manières. Si le serveur est judicieusement placé dans une infrastructure réseau, la transmission des données s’effectuera plus rapidement que si le client accédait directement au site distant final. De plus, certains serveurs, notamment dans le cadre des proxy Web, possèdent une grande capacité de stockage. Ainsi, les réponses aux requêtes des clients étant stockées sur un support magnétique, le serveur proxy n’aura pas besoin de recontacter le site distant car


?

La majorité des applications réseau, comme le navigateur Firefox, permettent l’utilisation de proxy.

il aura les réponses en cache. Cela se traduit par un nombre considérable de pages HTML, images et autres fichiers conservés sur disques durs. On l’a vu, un client réseau n’accède pas directement aux sites distants. Dans le cadre d’une configuration particulière, un serveur proxy peut servir pour protéger l’anonymat des utilisateurs. Avec celui-ci, le site distant n’aura que les traces de passage du serveur proxy et non celles du client. Il ne faut pas se voiler la face, cette fonction est surtout utilisée par les personnes pouvant se reprocher quelque chose comme les pirates informatiques, mais il est bon parfois de savoir que l’on peut échapper au flicage de certains sites. Après tout, pourquoi Internet ne serait pas un des derniers espaces de liberté dans notre société ? En ce qui concerne les sociétés et fournisseurs d’accès à Internet, les fonctions d’un serveur proxy peuvent être très utiles en termes d’administration. En effet, on peut forcer les utilisateurs à passer obligatoirement par un proxy, ce qui permet de maîtriser totalement les accès réseau. Par exemple, dans le cadre d’un serveur proxy Web, il est possible de restreindre l’accès à certains sites. Pour un contrôle parental, cette utilisation est plus que nécessaire car elle permet d’interdire l’accès, par exemple, aux sites pornographiques et forums de discussion en ligne. Dans un cadre

de restriction plus général, on peut forcer l’utilisateur à n’utiliser qu’un serveur proxy pour aller sur Internet. Dans cette configuration, un PC n’aura accès qu’au réseau local et ne disposera pas de passerelle générique pour se connecter directement à Internet. Il faudra alors configurer chaque application avec ce serveur proxy pour pouvoir accéder aux ressources d’Internet. On peut donc restreindre toutes les ressources accessibles sur Internet mais aussi attribuer des droits d’accès différents pour chaque utilisateur. Les

serveurs proxy, suivant leurs caractéristiques, permettent d’authentifier les requêtes en fonction d’un couple identifiant/mot de passe, par l’adresse IP ou même par l’adresse MAC d’une carte réseau. Toujours dans le cadre familial, on peut imaginer le PC des parents qui pourrait accéder à tout Internet à n’importe quelle heure, alors que le PC des enfants serait restreint en permanence au niveau de la consultation de certains sites Web et l’accès aux jeux en lignes serait coupé à partir d’une certaine heure de la soirée. Bien entendu, qui dit restriction et authentification, dit fichiers de log qui permettent tranquillement de surveiller à distance en temps réel, ou ultérieurement, ce qui se passe sur le réseau. On peut rencontrer un autre type de serveurs, bien que pour l’utilisateur, leur utilisation soit transparente : les reverse-proxy. Alors que l’utilisation des proxy standard s’effectue au niveau utilisateur, les reverse-proxy se situent au niveau des applications serveurs. Concrètement, si l’on prend l’exemple d’un serveur Web, une adresse HTTP va pointer sur une seule adresse IP, qui sera en fait une machine hébergeant un reverse-proxy. En fonction du chemin de l’adresse HTTP, celui-ci redirigera les requêtes Web vers différents serveurs Web. Cette solution permet non seulement de protéger les serveurs Web des attaques provenant

La catégorie Squid de Webmin permet d’accéder à toutes les options.

PC Update

I 93


Pratique Pour utiliser Proxy+ depuis Internet, il faut lui indiquer l’adresse IP du routeur et forwarder le port 1 080 sur celui-ci.

Proxy+ est un serveur proxy gratuit fonctionnant sous Windows, simple d’emploi malgré une interface austère.

fournisseurs d’accès à Internet en proposent un pour leurs clients. Par exemple, Free invite ses utilisateurs à utiliser l’adresse proxy.free.fr sur le port 3 128 pour les requêtes provenant d’un navigateur Web. Comment faire pour relayer des applications qui utilisent plusieurs ports dont il n’existe pas de proxy génériques ? Beaucoup moins répandus, les serveurs SOCKS permettent de relayer tout type d’informations, quels que soient les ports utilisés. On peut trouver maintenant trois moutures disponibles de ce protocole : la 4, 4a et 5. Alors que la version 4 est considérée comme mature et accessible par le public, les deux autres apportent des fonctionnalités supplémentaires. La 4a permet de se passer de serveur DNS, alors que la 5 est une véritable révolution puisqu’elle supporte le transport de l’UDP, permet l’authentification et est

Il est préférable de ne pas activer le protocole SOCKS4 dans Proxy+ car il n’est pas très sécurisé.

compatible avec Ipv6. On considère donc qu’il faut utiliser SOCKS5 en premier lieu quand il est disponible, car il est plus performant et surtout plus sécurisé. On peut aussi enfin distinguer une dernière catégorie de proxy : les SSL. Ceux-ci sont en fait de simples proxy génériques qui permettent de relayer des informations encryptées au format SSL, comme le protocole HTTPS. Que peut-on tirer de plus d’un tel proxy générique ? Il faut savoir que toutes les données transitant par ce type de serveurs sont totalement encodées par le principe même de la sécurisation SSL : il est donc impossible de filtrer les informations. Pour l’utilisateur, c’est un avantage non négligeable car cela lui permet d’accéder à l’aide de logiciels spécifiques à l’ensemble des ressources disponibles sur Internet, pour peu qu’elles soient véhiculées par TCP.

de l’extérieur, mais aussi de répartir les ressources matérielles et réseau.

Les différents types de serveurs proxy Comme de nombreuses applications IP sur Internet, il existe plusieurs normes permettant de faire tourner un serveur proxy, avec bien entendu leurs avantages et leurs inconvénients. Commençons par les proxy que l’on rencontre le plus souvent : ils sont dits génériques. Ils permettent de relayer simplement des requêtes sur un port IP donné. Ce sont donc des proxy simples qui ne servent que pour une application réseau. On rencontre plus généralement ce genre de serveurs pour les requêtes HTTP ou FTP et la quasi-majorité des

94

I PC Update

Dans le cadre d’une installation d’un serveur SOCKS5, il ne faut pas oublier de créer des identifiants car ce type de serveurs nécessite une authentification.


Dans le cadre d’un serveur proxy installé au sein d’un réseau local, il est obligatoire d’ouvrir les ports du proxy vers l’exterieur.

Les services d’anonymisation et les proxy Doux rêveurs ou entrepreneurs intéressés ? Certains sur la toile revendiquent pour chaque internaute la liberté totale d’utiliser le réseau des réseaux et cette liberté passe souvent par l’anonymat dans le cadre du surf et autres transferts de fichiers plus ou moins légaux. Ainsi, on trouve de plus en plus de services de type « anomizers » qui permettent de ne pas laisser de traces. Mais ce n’est pas tout : si un PC est bloqué par un firewall ou un proxy Web filtrant, ce genre de services permet de contourner ces restrictions pour pouvoir accéder à la majorité des ressources disponibles sur Internet. Pratique, quand on est au travail pour surfer tranquillement ! Pour utiliser un anomizer, il suffit de lancer un petit exécutable fourni par le site qui se connectera à des serveurs proxy autorisés. A partir de ce moment, le logiciel transforme le poste client en un serveur SOCKS local. Il faudra utiliser l’adresse 127.0.0.1 dans la configuration de ses logiciels pour se connecter sans problème à Internet, tout en laissant bien sûr l’application d’anonymat en tâche de fond. Les anomizers étant plus ou moins sérieux, il faut vraiment se méfier lorsque l’on utilise ce genre de services. En effet, toutes les données vont transiter sur des serveurs tiers et certaines peuvent être susceptibles d’être interceptées par des personnes malveillantes. Dans la jungle des anomizers, nous avons retenu les services de Your Freedom (www.your-freedom.net), société basée en Allemagne. A l’aide d’un logiciel client en français, multiplate-forme, tournant sous Java, il est possible gratuitement de se connecter à l’ensemble d’Internet 18 heures par

semaine avec une vitesse maximum de 64 kbps. Cela peut sembler peu, mais quand on est bloqué pour accéder à son jeu en ligne favori, cette solution fait des miracles, comparée aux autres anomizers gratuits qui ne disposent même pas d’une telle bande passante. Pour les utilisateurs les plus exigeants, il est toutefois possible d’acheter des options pouvant aller de 4 euros à 20 euros par mois, ce dernier package disposant

d’une bande passante illimitée ainsi que de l’ouverture de ports pour pouvoir faire tourner, toujours anonymement, des applications serveurs sur son PC.

Comment utiliser un proxy ? La plupart des logiciels évolués permettant un accès à un réseau et notamment à Internet disposent généralement, dans les options ou les préférences,

A l’instar des applications Linux, Squid se paramètre par fichier texte. Toutefois, la configuration par défaut est adéquate pour une simple utilisation.

PC Update

I 95


Pratique Pour l’administration Linux en général et en particulier, pour le proxy Squid, Webmin est une application Web qui facilitera le paramétrage.

d’une section autorisant l’utilisation d’un serveur proxy. Celle-ci est majoritairement symbolisée par une adresse IP et un port à utiliser. Si le type du proxy à utiliser est proposé, il faut choisir en premier lieu les proxy de type SOCKS5 si bien sûr, on dispose d’un tel accès. Dans ce cas, il sera demandé d’entrer un identifiant et un mot de passe. Que faire quand le programme ne dispose pas de telles options ? Il existe des applications dites de sockification qui permettent d’utiliser n’importe quel logiciel avec un proxy. Ce sont des résidents en mémoire, il faudra renseigner les caractéristiques de son proxy ainsi que les applications à exécuter. Il en existe de nombreuses, gratuites ou payantes, comme Freecap, Proxycap ou Sockscap.

Configurer un proxy chez soi Il est parfois difficile de trouver des serveurs proxy dignes de ce nom, et notamment les serveurs SOCKS. Une solution est d’en installer sur une petite machine recyclée par exemple, et dans un environnement non restreint, comme une connexion Internet domestique, afin de pouvoir tranquillement surfer de n’importe quel autre endroit et notamment au travail ou à partir d’une connexion Wi-Fi ou 3G.

FreeCap est un sockifier qui permet d’utiliser des serveurs proxy avec des applications qui ne disposent pas d’options adéquates pour y recourir.

Comme dans de nombreux domaines, le choix de l’application pour exécuter un serveur SOCKS est grand. Nous avons opté pour Proxy+ car il est gratuit pour une utilisation domestique et qu’il possède de nombreuses options. Après l’avoir téléchargé sur le site de l’éditeur (http://www.proxyplus.cz/), le petit logiciel s’installe et lance automatiquement un assistant de configuration. Il est conseillé de l’installer en tant que service Windows, afin que le serveur démarre automatiquement à l’allumage du PC. Une fois cette procédure terminée, l’interface de configuration se consulte par un navigateur Web, à l’instar de la configuration de la plupart des routeurs d’aujourd’hui. Il faut donc alors se rendre à l’adresse http://127.0.0.1:4400 par défaut avec son navigateur favori. En cliquant sur Proxy Settings et ensuite sur la catégorie Proxy/General, on peut cocher les types de services que l’on désire, à savoir SOCKS sur le port par défaut 1 080. Ensuite, dans la partie SOCKS Server, on cochera la case Use SOCKS5 authentification, uniquement afin de bénéficier d’un maximum de sécurité. Qui dit authentification, dit identifiant

96

I PC Update

Attention à bien paramétrer son serveur proxy ! Les pirates utilisent les non-sécurisés pour leurs besoins.


et mot de passe que l’on doit créer afin d’accéder au serveur proxy. Cette configuration se trouve dans le menu Account/ User. Les comptes créés seront à renseigner dans les applications clientes nécessitant la connexion d’un serveur SOCKS5. Il faudra cocher l’utilisation du serveur SOCKS5 et créer des comptes d’utilisateurs pour pouvoir s’authentifier lors de l’utilisation. Reste maintenant à bien vérifier que le port 1 080 est ouvert en entrée/sortie dans l’éventuel parefeu de la machine et à forwarder le port du serveur (par défaut, 1 080) afin que l’on puisse y accéder depuis Internet. Son utilisation est alors toute simple : il suffit de connaître l’adresse IP de sa connexion domestique et de renseigner celle-ci dans un client distant, accompagnée du port 1 080 et des identifiants préalablement créés. Dans le cadre d’un réseau local relié à Internet, la mise en place d’un serveur proxy Web peut être très intéressante : il permet de mettre en cache les pages Web les plus souvent consultées et d’effectuer une fonction de filtre pour restreindre l’accès à certains sites. La solution que nous avons choisie tourne sous Linux, avec l’application serveur Squid. Pourquoi Linux ? Premièrement, Squid est le serveur proxy de référence et il est bon d’avoir une machine dédiée pour le faire tourner. Linux ne demandant pas beaucoup de ressources, une petite configuration de récupération suffira. Quel Linux installer ? N’importe lequel fera l’affaire, notre préférence allant à Ubuntu Server, la version LTS (Long Term Support) étant disponible à l’adresse http://ftp.oleane.net/ubuntucd/dapper/. Ce n’est pas la dernière version d’Ubuntu, mais c’est la plus stable et la plus recommandée dans l’utilisation d’un serveur en production. L’installation d’Ubuntu Server est très simple, bien qu’elle s’effectue en mode texte. Il faut bien penser à changer le

Un serveur proxy dans le cadre d’une utilisation simple d’un réseau local.

langage et le clavier en français lors du premier menu, après le démarrage sur le CD-Rom. Une fois le reboot effectué, on arrive devant un écran noir où l’on va renseigner l’identifiant et le mot de passe préalablement fixés pendant l’installation. Il faut alors mettre à jour le système via la commande : « apt-get », tout en activant la possibilité de télécharger des logiciels supplémentaires. En tapant la commande : « sudo nano /etc/apt/ sources.list », on va éditer un fichier de configuration système en enlevant les # de chaque début de ligne qui commence par deb et deb-src et se finissant par universe ou multi-universe. « sudo aptget update » va mettre à jour la liste des logiciels disponibles et « sudo apt-get upgrade » va les mettre à jour depuis Internet. Une fois le système mis à jour, on va installer Squid, le logiciel de proxy Web, ainsi que son module de listes noires, SquidGuard, par l’intermédiaire de la commande « sudo apt-get install squid squidguard ». Et voilà ! Il ne reste plus qu’à configurer ! Evidemment, ce n’est pas du tout simple : les fichiers texte sont placés dans le répertoire / etc/squid/ et à moins d’être un pro de Linux, il vaut mieux passer par une interface graphique. Nous avons choisi Webmin, qui, malgré des failles de sécurité dans le passé, est très intuitif et convivial pour administrer un serveur Linux. Pour l’installer, on va ajouter la ligne « deb http://download.webmin.com/ download/repository sarge contrib » à

la fin du fichier /etc/apt/sources.list. « sudo apt-get update » et « sudo aptget install webmin » installeront l’application et on pourra administrer son serveur et notamment Squid, par l’intermédiaire d’un navigateur Web présent sur une machine du réseau, en utilisant le port 10 000 (https://ipproxy:10000). Attention, la configuration peut sembler compliquée au premier abord, même avec une interface Web, mais le jeu en vaut la chandelle et une forte communauté d’utilisateurs sera toujours là pour vous aider.

L’interface du logiciel Your Freedom est très simple d’emploi et dispose de nombreux assistants. Ici, il peut configurer automatiquement les applications les plus répandues pour les utiliser avec le service.

A retenir • Les serveurs proxy permettent de relayer des informations réseau. • Ils peuvent servir à filtrer, protéger l’anonymat ou augmenter la rapidité d’accès aux données sur Internet. • Un anomizer permet de surfer anonymement sur Internet, mais aussi de contourner des firewalls et autres restrictions. • L’utilisation d’un serveur SOCKS5 est à privilégier sur tout autre type de proxy. • L’installation d’un serveur proxy chez soi permet de surfer sans restriction depuis n’importe quel autre endroit. Your Freedom offre de très bonnes performances réseau. Avec le package illimité, nous avons réussi à télécharger un fichier en utilisant 100 % de notre bande passante.

PC Update

I 97


Pratique

Les logiciels

du mois

Manuel Da Costa

De l’application incontournable et pratique, à celle loufoque et inutile, notre sélection mensuelle d’utilitaires ne manquera pas de vous étonner.

Mise à jour facile

S

i tenir ses applications à jour est loin d’être difficile, elles n’intègrent pas toutes la fonction de mise à jour automatique. Ce qui nous oblige régulièrement à vérifier l’existence d’une nouvelle version avant de pouvoir la télécharger et de l’installer. Le genre de tâches qui peuvent très vite s’avérer fastidieuses, surtout sur les sites d’éditeurs regorgeant de fenêtres publicitaires. Le logiciel gratuit Update Checker (www.filehippo.com) permet justement de s’affranchir de ce travail en automatisant le recensement de vos applications et la recherche de mises à jour. Dans le même registre, vous trouverez le logiciel SUMo (www.kcsoftwares.com).

Personnalisez vos icônes Nous apprécions tous de personnaliser notre environnement Windows, mais nous n’avons pas forcément envie de consacrer plusieurs heures à installer et à configurer

98

I PC Update

un Samurize ou LiteStep, ou d’acquérir la licence d’un logiciel de personnalisation plus simple à prendre en main. Ce qui limite les

possibilités de personnalisation au changement de thème ou de papier peint Windows. Pour aller un peu plus loin, Imagicon (www. deviouscodeworks.co.uk) est un petit programme gratuit permettant de convertir à la volée (glisser/déposer) et très simplement vos images BMP, PNG et JPG en icônes (.ico) dans la taille de votre choix (16 x 16, 32 x 32, 48 x 48, 64 x 64 et 128 x 128). De quoi personnaliser tous vos raccourcis de bureau. Plus complet, IcoFX (http://icofx.ro) vous propose les mêmes fonctionnalités, avec en plus un éditeur, une palette d’outils assez complète (couleur, saturation, ombre, zoom, etc.), plus d’une quarantaine d’effets (blur,


transparence, etc.) et la possibilité d’extraire des icônes directement depuis un exécutable 32 bits ou une bibliothèque dll (même les icônes Mac). Vous pourrez ainsi créer et éditer des icônes d’une taille maximale de 256 x 256 pixels en toute simplicité.

sourceforge.net) est un programme open source en anglais (seulement 386 ko) qui vous permettra d’optimiser la gestion de vos applications en cours de fonctionnement au travers de plusieurs bureaux virtuels (ou workspaces). Vous pourrez configurer le nombre de bureaux virtuels à utiliser (jusqu’à 20), les raccourcis clavier et ajouter d’autres fonctionnalités via le système de modules intégré. Dommage que VirtuaWin n’offre pas un mode Exposé permettant de visualiser d’un seul coup d’oeil tous ses bureaux virtuels.

la possibilité de stocker vos photos en ligne (jusqu’à 2 Go).

Envoyez des fichiers sans limites

Doubles Finder Quoi de plus fastidieux que de se lancer dans la maintenance de son système pour retrouver un semblant de performances. Si différents outils existent pour nettoyer votre système de vos fichiers temporaires, ils sont malheureusement incapables de détecter les doublons sur votre disque. Quoi de plus efficace alors que le programme Doubles Finder (http://alainlecomte.free. fr) qui ne nécessite aucune installation, pour repérer efficacement vos doublons et récupérer un précieux espace disque. Gratuit, le logiciel permet d’utiliser des filtres pour affiner l’analyse et la recherche de doublons en plus d’être skinable.

Bureaux virtuels Compatible avec Windows 9x/Me/NT/2k/ XP et Vista, VirtuaWin (http://virtuawin.

Photoshop, c’est trop cher pour vous ? Avec le développement des services Web 2.0 qui a le vent en poupe, nous attendions tous qu’Adobe veuille enfin offrir une alternative en ligne de son logiciel phare Photoshop. Et voilà qui est fait puisque Photoshop Express (www.photoshop. com/express) est aujourd’hui disponible en phase bêta (en anglais seulement pour l’instant). Et même s’il reste basique, le logiciel d’Adobe offre une interface intuitive en flash et tous les outils nécessaires pour retoucher simplement vos clichés. Et où que vous soyez de surcroît, avec en prime,

Disponible sous Windows XP et Vista, Podmailer est un logiciel actuellement en bêta test, ouvert au public, permettant de s’affranchir des limites de taille imposées par votre FAI et votre client mail. Il fonctionne sur le principe du Peer 2 Peer et envoie, pour commencer, une notification de transfert à votre contact, avant d’initier le transfert relayé par les serveurs de PodMailing. Une fois les fichiers disponibles sur les serveurs de PodMailing, ils sont conservés pendant 30 jours et pourront être récupérés directement depuis un navigateur (téléchargement classique HTTP) ou par l’intermédiaire de n’importe quel client Torrent. A noter que Podmailer n’est pas un Peer 2 Mail (P2M), celui-ci n’utilisant pas votre adresse mail pour transférer les fichiers. Espérons que ce logiciel incontournable, qui ne doit pas être utilisé à des fins illégales, reste gratuit.

Créez votre propre jeu flash Pour finir, rien de tel qu’un léger moment de détente et de fou rire puisque le site www.pictogame.com vous permet de créer gratuitement en quelques clics, un jeu flash délirant parmi lesquels Sniper, Dance Dance, Culturiste, Bisous, Pied Tendre et Line Driver. Vous aurez ensuite l’extrême joie de publier et de partager votre jeu flash avec vos amis et bloggers. D’ailleurs, nous vous recommandons ce petit lien de notre cru : www.pictogame. com/play/game/yg5vwkJNaJiL_sniper.

PC Update

I 99


Geek

geeks, ça pique un peu les yeux Manuel Da Costa

Entre la redécouverte envoûtante de la profession de secrétaire, l’histoire de l’orc shaman Rehgar Rageterre, les technologies de demain et les livres répondant à notre soif de savoir, vous aurez de quoi bouleverser vos neurones avec notre nouvelle sélection geek.

S

uite à notre dernière rubrique geek, nous tenions à présenter nos excuses à tous les joueurs que nous avons qualifiés de crétins (ça n’existe pas hein ?). Après tout, si les joueurs prennent plus de plaisir à prendre la pilule du lendemain plutôt qu’un bon café (parce que le coca, c’est mal, c’est sucré et ça fait grossir) pour rester compétitifs lors des longues nuits de LAN, cela les regarde. Pour pousser le vice, vous pourrez imiter les avatars que vous incarnez dans Titan Quest, Lineage 2, World of Warcraft et compagnie en buvant vous aussi de la fiole de mana. Pour les incultes (ou noobzor, c’est vous qui voyez), cette potion permet de regagner de précieux points de magie indispensables pour jeter de vils sorts. Et pour les geeks, ces petites boissons ressemblent à de vraies potions de mana, sont vendues par pack de six comme la bière (19,99 $) et contiennent tout en tas d’ingrédients permettant de lutter contre les tremblements, l’obésité, la bêtise, le cholestérol, le diabète et l’épilepsie (www.thinkgeek.com).

OLED next generation

S

i le premier clavier OLED peut sembler séduisant (comptez à peine plus de 350 euros), une petite bande de Russkoffs dirigée par Burbayev, Bystronovsky, Voroneshsky, Lebedev, Mikhailov et Pashenko (www.artlebedev.com/studio) a imaginé une version bien plus attrayante et

exempte de toute touche. Baptisé Optimus Tactus, ce nouveau périphérique OLED entièrement tactile permet de configurer chaque partie du clavier en créant des touches programmables (taille, image à afficher, fonction). Il faudra malheureusement se montrer patient en espérant que ce concept si séduisant puisse réellement voir le jour, sans pour autant crever le plafond en termes de prix. En attendant cet instant, rien de tel qu’une petite sieste bien méritée sur l’oreiller Dosugus qui nous remémorera nos années DOS au passage.

100

I PC Update


Parce que je le vaux bien

P

arce qu’on ne rigole pas avec la santé, les innombrables heures à passer devant notre PC pouvant entraîner toutes sortes de problèmes et douleurs, autant nous assurer que nous arriverons bien à la retraite, grâce à l’édition Flagship du bureau V1 (www.thev1chair. com), moyennant un prix de base de 2 600 dollars (1 645 euros). Pour presque le prix d’un MacBook Air (le choix est vite fait pour notre part), vous aurez droit à un véritable bureau de geek fonctionnel, comprenant un siège baquet sport BMW avec tout plein de gadgets pour vous réchauffer et vous masser, ainsi que des dessus de tabourets Ikea pour poser tout un tas de trucs inutiles. Pour faire plus « vendeur », nous aurions pu rajouter un magnifique kit d’enceintes 7.1 et un système triécran LCD, mais non. Rien de tout ça puisque aucun système d’enceintes, écran LCD ou PC n’est livré. Vous aurez, au contraire, la possibilité de dépenser plus avec les options custom dignes des plus grands constructeurs automobiles (peinture custom, siège Porsche avec chauffage et massage des lombaires avec son alimentation, etc.), pour obtenir au final un bureau plutôt bien conçu mais difficile à caser dans son salon.

L’invasion a commencé

S

i les fameuses télécommandes Harmony de Logitech étaient déjà fort intéressantes, Toshiba Japon vient de présenter un modèle qui risque fort de faire un tabac. Puisque cette télécommande d’un nouveau genre n’est autre qu’un ch’ti robot tout mignon baptisé ApriPoko (son regard qui louche est à tomber), capable de détecter l’utilisation de vos télécommandes classiques avant de vous demander ce que vous venez de faire et d’en assimiler la fonction. La prochaine fois, il suffira de demander à ApriPoko de le faire pour vous avant d’admirer ce dernier agiter son aile. Encore au stade de prototype et limité à des actions simples, espérons qu’il soit vite au point pour le voir débarquer dans nos contrées.

Un geek, ça fait du sport ?

S

’il y a bien une chose que nous apprécions particulièrement, c’est de découvrir les nombreux événements « intelligents » de la planète qui permettent de révéler de réels talents et autres génies. C’est notamment le cas de l’Australian Design Award qui a vu un étudiant australien du nom de Du Tran Nguyen être primé pour des gants de sport un peu particuliers. Baptisés « Vie », ces derniers abritent un petit écran souple étanche, ainsi qu’un nanoprocesseur sur un circuit flexible en silicone doté des technologies Bluetooth et GPS, alimenté par une petite batterie rechargeable à l’aide du dispositif sans fil SplashPad (www.splashpower.com) fonctionnant sur le principe de l’induction électromagnétique, en plus d’utiliser l’énergie cinétique de votre corps lors d’un effort physique. L’intérêt de ces gants « Vie » est de fournir à l’athlète que vous êtes, la possibilité de créer un parcours de jogging en temps réel en évitant, au passage, que vous vous perdiez. Ce qui ne doit pas être inutile pour localiser les toilettes publiques en cas de besoin.

PC Update

I 101


Geek Linux, c’est plus fort que toi

V

oilà un titre provocateur qui ne manquera pas de rajouter un peu de bois pour attiser le feu entre Linuxiens, Windowsiens et Mac OSiens. Puisque le Zero Day Initiative, un concours d’hacking organisé à Vancouver sur trois jours par la société Tipping Point (www.tippingpoint. com), a permis à Linux Ubuntu 7.10 de s’illustrer en restant inviolé. Nous ne tirerons aucune conclusion hâtive, parce que tout le monde sait bien qu’il n’y a jamais eu de systèmes Linux crackés hein ? Mais difficile également d’imaginer quelqu’un refuser un chèque pouvant aller de 5 000 à 20 000 dollars. Mais ce que nous retiendrons, ce n’est pas tant l’exploit réalisé par Shane Macaulay qui a réussi à percer les défenses de Windows Vista, en remportant au passage la jolie prime de 5 000 dollars, ainsi qu’une invitation à la Defcon de Las Vegas, le plus grand événement d’hacking underground de la planète, mais davantage le Lifebook U810 Mini notebook de Fujitsu qui tourne sous (vous ne devinerez jamais)…Windows Vista Ultimate SP1. Et Charlie Miller qui a, lui, gagné 10 000 dollars pourra lui aussi assister à la Defcon tous frais payés, en plus de repartir avec le MacBook Air et Mac OS 10.5.2 qu’il a cracké en seulement deux minutes. Le vent de la discorde souffle sur Apple :)

Moi, un écervelé ?

En papier et en os

D

epuis des années, l’heroic fantasy ne cesse de faire des émules. Et si comme pour les jeux vidéo portés au cinéma, nous pouvions craindre un portage BD de World of Warcraft de piètre facture, dont le seul but est de vous alléger de vos euros, le tome En terre étrangère de Walter Simonson et Ludo Lullabi aux éditions Soleil (www.soleilprod.com) est, au contraire, une bonne adaptation de cet univers. Une quête épique et brutale qui vous séduira… enfin, c’est surtout l’elfe de sang Valeera qui vous plaira, croyez-nous. Pour rester du côté de la séduction, Les secrétaires arrive à point nommé pour compléter la fête du 17 avril justement dédiée à cette profession. Vous y découvrirez non pas une BD, mais des petites tranches de vie des exquises Mathilde, Agathe, Thao, Caroline et leurs consoeurs. Le tout orchestré par Jactance et illustré par le célèbre Crisse (on lui doit les illustrations de l’excellente série L’Epée de cristal), qui n’a pas son pareil pour dessiner les femmes. Un hommage des plus charmant qui ne laissera personne indifférent.

102

I PC Update

J

ouer ou passer le plus clair de son temps sur PC alors que nous dépassons la trentaine, cela entraîne inévitablement des remarques désobligeantes de la part de notre entourage. Mais pour calmer les mauvaises langues et éviter de s’arracher les quelques cheveux qui nous restent en initiant nos proches à l’informatique, nous avons trouvé la recette infaillible : offrir de véritables « bibles ». A commencer par le guide complet de Micro Application consacré à Windows Vista Service Pack 1 qui permet non seulement de s’initier, mais de maîtriser et de découvrir des fonctions que beaucoup ont tendance à occulter en martelant sans cesse que Windows Vista, c’est le mal. Et puis devant le tumulte provoqué par l’iPhone, quoi de plus normal que de lui consacrer le livre Secrets et astuces iPhone qui vous permettra non seulement de prendre en main l’objet chèrement acquis, mais également de résoudre les éventuels codes d’erreur générés à la suite d’une mise à jour. Sans oublier d’expliquer comment désimlocker l’appareil. Un ouvrage qui s’applique d’ailleurs sans problème à l’iPod Touch. Pour finir, quoi de plus plaisant que de montrer à votre entourage vouant un culte aveugle au Programme d’entraînement cérébral du Dr Kawashima sur Wii ou DS, qu’il existe un vrai livre permettant de développer vos neurones. Avec Boostez vos neurones, vous n’aurez pas seulement qu’une impression de « mieux » en découvrant l’âge de votre cerveau, mais vous obtiendrez un sens aiguisé de la logique et éviterez de balbutier des heuuuu ou encore de trop utiliser votre calculatrice.


Pratique

IPv6 : pour tous ?

IPv6, le successeur de notre protocole IP utilisé dans la majorité des réseaux, est sans aucun doute l’un des buzzs du moment. Quels sont les avantages de cette nouvelle mouture ? Pourquoi n’est-il pas plus répandu ? Et surtout, comment le mettre en place avec n’importe quel fournisseur d’accès Internet ? Suivez le guide !

I

nternet Protocol version 6 (IPv6) est un protocole de communication réseau et interréseau destiné à remplacer IPv4, qui est massivement utilisé actuellement. Pourquoi remplacer un système qui a fait ses preuves et a su s’imposer ? Sur Internet, qui est le réseau public IP, chaque machine présente sur l’infrastructure possède une adresse IP qui lui est propre. Or, le nombre de ces adresses n’est pas infini et on assiste même actuellement à une pénurie d’adresses IP, notamment à cause de l’informatisation des pays émergents. Le principal ajout d’IPv6 est donc une plus grande plage d’adresses disponibles, qui va même jusqu’à supprimer la notion d’adressage pour les réseaux privés, comme par exemple ceux du type 192.168.0.0. Cette opération simplifie beaucoup la tâche des administrateurs : l’absence de réseaux locaux permet d’éviter la translation d’adresse (NAT) pour accéder à Internet. Même si cela n’était pas intentionnel de la part des concepteurs d’IPv6, chaque machine connectée à Internet en IPv6 possédera une adresse IP unique sur le réseau des réseaux. Ainsi, alors que les adresses IPv4 sont codées en 32 bits, celles d’IPv6 disposent de 128 bits, ce qui laisse une plage de 2^128 adresses disponibles soit environ 6 500 000 000 000 adresses. Une autre nouveauté apparue avec IPv6

104

I PC Update

Laurent dilain est l’autoconfiguration des paramètres réseau des machines : un peu à la manière du protocole DHCP, la carte réseau questionne le réseau sur lequel

elle est présente à travers des paquets multicasts et si le routeur est convenablement paramétré, celui-ci indiquera les paramètres IPv6 à appliquer. Au sujet du

L’activation d’IPv6 chez Free se fait par la console de gestion (Mon compte/Fonctions optionnelles de la Freebox/Configurer autres fonctions).


règles, les différentes IP suivantes sont identiques : 0000:0000:0000:0000:0DCE:00239:00 00:ED34 0000:0000::0DCE:00239:0000:ED34 0:0::0DCE:00239:0:ED34 0:0::DCE:239:0:ED34 ::DCE:239:0:ED34 0:0:0:0:DCE:239::ED34

Comparaison de traceroute : ci-dessus, la version IPv4 de Google (www.google.com) et en dessous, sa version IPv6 (ipv6.google.com). Qui a dit qu’IPv6 ne servait à rien ? 21 sauts contre seulement 10 pour la version 6 !

multicast justement, IPv6 intègre nativement la fonction d’envoi des données à l’ensemble des réseaux, qu’ils soient locaux ou distants. Une autre fonction qui va grandement simplifier la vie des utilisateurs est la notion d’adresses « Link-Local ». Imaginons par exemple une LAN party où chaque gamer apporte sa machine : à moins d’avoir un serveur DHCP, il faudra un certain temps avant que le réseau local soit parfaitement configuré. Si tous les ordinateurs ont IPv6 d’activé, il suffit de les allumer pour que chacun d’entre eux s’attribue et communique son adresse IP. Enfin, pour en finir avec les nouveautés remarquables d’IPv6, le protocole tient compte des progrès technologiques effectués dans le domaine des supports physiques réseau tels que la fibre optique : alors qu’IPv4 ne disposait que d’un MTU d’une longueur maximale de 64 kbit, IPv6 peut dépasser allégrement cette contrainte pour atteindre des paquets de 4 Gbit ! Dans le cadre d’un réseau Ethernet classique, cette valeur est inutilisable, mais pour les grosses liaisons inter des providers, la vitesse se fera sentir. Au niveau du routage, on note aussi une amélioration intéressante de la fiabilité : les calculs d’erreurs ne sont plus effectués par la couche réseau, mais par les couches liaison et transport, ce qui devrait augmenter encore la vitesse de transfert. Pour finir, IPv6 englobe nativement le protocole d’encryption IPSec des données, qui reste le

Il faut noter qu’il est impossible d’utiliser plusieurs fois la notation « :: », car la confusion serait obligatoirement présente. Dans le cadre de la compatibilité entre les adresses IPv4 et IPv6, il est possible que les quatre derniers octets de l’adresse soient remplacés par des chiffres décimaux séparés par des points. Par exemple, l’adresse ::FFFF:12.34.56.78 équivaudra à 0:0:0:0:FFFF:0C22:384E. Une autre subtilité de cette nouvelle numérotation se trouve dans l’utilisation de ces adresses dans les URL. En effet, puisque l’on utilise le symbole :, comment adjoindre un port particulier à une adresse Web ? Pour cela, il est nécessaire de placer l’adresse entre crochets comme ceci : https://[2001:db8:25::3412]:443.

Un ipconfig/all sur une connexion IPv6 Free sous Vista révèle l’adresse IPv4, l’adresse IPv6 Internet (commençant par 2a01) et l’adresse IPv6 locale (commençant par fe80).

standard pour l’instant dans le monde de la sécurité. Fini les configurations compliquées et les générations de clés : deux routeurs IPv6 pourront s’échanger des données en toute confiance.

Comment reconnaître et lire une adresse IPv6 ? Pour ceux qui avaient du mal à se souvenir d’une adresse IP à la mode v4, la version 6 va être responsable d’une grande prise de tête ! En effet, une adresse IPv6 est composée de huit groupes de quatre caractères hexadécimaux (0-9 A-F). Ainsi, une adresse IPv6 valide sera par exemple FE80:0000:31B4:C8AA:C15B:B005 : 1428:57AB ! Il est possible néanmoins de raccourcir les adresses en fonction de plusieurs règles : chaque groupe de quatre zéros (0000) pourra être réduit par 0. On peut aussi omettre les zéros qui commencent un groupe : 00ED deviendra ED. Enfin, il est possible d’utiliser une fois la notation « :: » pour remplacer tous les groupes de quatre zéros. Pour illustrer ces

Et IPv5 ? C’est la première question qui se pose, même aux néophytes, lorsque l’on aborde IPv6. Pourquoi pas de version 5 après la version 4 ? IPv5 existe bien sûr, mais ne fut qu’un protocole expérimental défini en 1979. Aussi connue sous le nom d’Internet Stream, cette technique devait adjoindre à IPv4 la possibilité d’envoyer des paquets non IP de streaming en direct. Ce projet devait être un complément d’IPv4, mais il n’a jamais été porté au grand public.

Pour aller plus loin dans l’étude de ces nouvelles adresses IP, on peut décomposer celles-ci en deux groupes : les 64 premiers bits d’une adresse correspondent en fait à l’adresse de sous-réseau.

PC Update

I 105


Pratique configurer IPv6 pour un réseau local ou un accès Internet ? Rien de plus simple, tout est automatique. Pour des réseaux locaux privés, les machines se configureront automatiquement et pour le cas d’Internet, si la fonction IPv6 du modem/routeur est activée, les ordinateurs prendront automatiquement une adresse IP publique après quelques minutes.

Microsoft Windows Vista intègre nativement le support du protocole IPv6.

Sur Internet, ces informations correspondent généralement au fournisseur d’accès, alors que le dernier groupe correspond à l’hôte. Toutes les adresses commençant par 2 définissent les machines présentes sur l’Internet IPv6. Par exemple, Free utilise le bloc 2A01 :5D8 :. Comme avec l’IPv4, il existe aussi des adresses réservées spécifiques. ::1 correspond à l’adresse loopback localhost (127.0.0.1 en IPv4). Les adresses commençant par FE80:: constituent des adresses locales définies par le protocole Link-Local que nous avons vu précédemment.

Installation d’IPv6 en pratique Comment bénéficier des améliorations d’IPv6 ? Tout d’abord, il faut obligatoirement utiliser un système d’exploitation supportant le protocole. C’est le cas de Windows Vista, qui intègre par défaut dans la configuration d’une carte réseau une par-

106

I PC Update

tie IPv6. Pour Linux, les dernières distributions embarquent automatiquement IPv6. Si celui-ci n’est pas présent, il faudra ajouter le module ou au pire des cas recompiler le noyau. En ce qui concerne Windows XP, il faudra faire une petite manipulation pour ajouter le protocole. A partir de la ligne de commandes (Démarrer/Exécuter/« cmd »), il faudra taper la commande « ipv6 install ». IPv6 sera alors disponible sur le système dans les propriétés de la carte réseau sous la dénomination « Microsoft IPv6 Edition Développeur ». Comment ensuite

Passons maintenant à la configuration du routeur et de la connexion Internet. A notre connaissance, seuls deux fournisseurs d’accès grand public français proposent une connexion IPv6 à leurs abonnés : Nerim et Free. Pour ce dernier, l’option est à activer dans la console de gestion Web de son compte. Après un reboot de la Freebox, celle-ci distribuera automatiquement des adresses IP à la sauce v6 à tous les ordinateurs connectés à elle. Pour les abonnés des autres FAI, il est possible d’utiliser gratuitement une passerelle IPv4 vers IPv6. Nous avons SixXS.net (Six Access), qui propose un service totalement gratuit de connexion au réseau IPv6 d’Internet. Le concept est simple : après s’être enregistré et avoir choisi le mode de fonctionnement (derrière un NAT, par exemple), l’utilisateur devra installer un petit logiciel disponible sur toutes les plates-formes, nommé AICCU (Automatic IPv6 Connectivity Client Utility). C’est celui-ci qui fournira la connexion IPv6 à la machine. Pour les utilisateurs de routeurs basés sur Linux, il est à noter que le tunnel peut être fait directement et automatiquement afin que toutes les machines d’un réseau disposent automatiquement d’une connexion IPv6.

Les problèmes engendrés par IPv6 Chaque nouvelle et donc jeune technologie entraîne son lot de désagréments et IPv6 n’échappe pas à la règle. Premièrement, les paquets IP sont beaucoup plus gros que la version 4 : ils contiennent beaucoup plus d’informations comme la gestion du QoS ou de l’IPSec et la taille de l’adresse IP est passée de 32 à 128 bits. Toutes ces infimes augmentations pourraient provoquer un léger ralentissement des téléchargements. Le plus gros défaut visuel et donc flagrant du protocole est sans nul doute la complexité à retenir une adresse IP : quasiment impossible ! Même si l’on omet le premier groupe alphanumérique qui correspond au sous-réseau, il est plus que difficile de se souvenir d’une adresse IP à la sauce v6. Fini donc les : « C’est quoi ton IP ? » Il faudra maintenant penser à écrire correctement le nom de sa machine. Enfin, et c’est sans doute le point le plus important, les machines présentes sur l’Internet IPv6 ne sont pas protégées par un NAT alors qu’elles l’étaient auparavant. Un routeur IPv6 ne se contente que de faire passer les informations et ne fait plus de translation d’adresse. Quand on voit que la configuration IPv6 est automatique et activée par défaut, on peut craindre le pire ! Il faut donc impérativement se doter d’un pare-feu sur chaque machine ou global.


Alors, devons-nous passer à IPv6 ? La réponse est oui si votre fournisseur d’accès propose cette option ou si vous vous sentez le courage de monter une passerelle sous Linux à l’aide des tunnels gratuits comme celui de SixXS. La connexion sera alors totalement transparente et ne pourra être que plus rapide, car les sites IPv6 sont très peu saturés du fait du nombre restreint d’utilisateurs. Quels sont les réels avantages en dehors de tester le protocole ? Il n’en existe malheureusement pas vraiment : la grande majorité du Net étant encore en IPv4, les sociétés ne font pas l’effort de migrer vers IPv6. Pourtant, il faudra y venir : les adresses IP ne sont pas illimitées. Alors autant être prêt !

Le site kame.net permet de savoir rapidement si IPv6 est activé sur l’ordinateur. Si la tortue danse, la connexion est paramétrée !

Le logiciel AICCU du service SixXS permet d’établir une connexion IPv6 avec n’importe quelle machine.

FAI et constructeurs : IPv6 pas pour tous… On vient de le voir, l’installation et l’utilisation du protocole IPv6 sont vraiment très simples pour les utilisateurs finaux. Pourtant, l’IPv6 n’est pas entré dans les foyers ! Pourquoi ? On peut aisément arriver à plusieurs constats : les fournisseurs d’accès sont plus que frileux pour déployer cette technologie à l’ensemble de leurs

utilisateurs. De nombreuses machines ne supportent pas IPv6 par défaut, ce qui demanderait une augmentation du support technique considérable. D’autre part, les constructeurs ne jouent pas non plus le jeu. Alors que de nouveaux modèles de routeurs et points d’accès Wi-Fi sont disponibles quasiment tous les mois, le matériel estampillé IPv6 est vraiment rare pour le grand public. Seuls les ultrageeks seront alors susceptibles de monter un routeur 100 % IPv6 à l’aide de Linux ou d’un routeur dont le firmware aura été modifié. Pourtant, une grosse communauté est derrière IPv6 pour tenter de l’imposer. De nombreux sites et autres gadgets existent et ils valent le coup d’oeil ! On pourra citer pêle-mêle des trackers BitTorrent, des sites de streaming et même un site très sérieux proposant du contenu pornographique uniquement aux utilisateurs d’IPv6 ! En voici une sélection à cette adresse : http://www.sixxs.net/ misc/coolstuff/

Vista intègre totalement IPv6. Ici, avec un ping vers le moteur de recherche IPv6 de Google, on peut voir l’adresse de la machine.

L’en-tête d’un paquet IPv6 en détail.

A retenir IPv6 est en premier lieu un remplaçant d’IPv4 pour lutter contre la pénurie d’adresses disponibles sur Internet. La configuration des machines sur un réseau est totalement automatisée. La taille des paquets est augmentée, ainsi que leur routage simplifié. Une adresse IPv6 est composée de 2 x 4 groupes de caractères hexadécimaux (exemple : fe80:0000 :0000:0000 :31b4:c8aa:c15b:b005). Pour bénéficier d’IPv6, il faut un système d’exploitation compatible ainsi qu’un fournisseur d’accès Internet proposant l’option, ou bien utiliser une passerelle gratuite à l’aide d’un logiciel. Chaque machine accédant à Internet IPv6 possède sa propre adresse IP et est donc accessible directement par les internautes. Il faut donc penser à appliquer un firewall.

PC Update

I 107


Comparatif

GPS Radars, traffic, mains libres, musique, y a t il une vie en dehors de Tom Tom ? Pierre Caillault

Pratique, rapide, efficace, « intelligent », le GPS d’aujourd’hui remplit de plus en plus de fonctions et ne cesse d’évoluer. Outre le guidage, un GPS moderne sert de kit mains libres, peut anticiper les bouchons avec le TMC, vous prévient à l’approche d’un radar automatique ou lorsque vous dépassez la limite de vitesse… Bref, c’est l’assistant indispensable. Le tout étant de savoir lequel prendre. L’offre est importante, beaucoup de marques se chevauchent et se disputent un marché très concurrentiel. Et une seule domine : TomTom. Est-ce encore la référence incontestée ? 108

I PC Update


SiRF est le plus connu des constructeurs de puces GPS. Mais d’autres lui font de plus en plus d’ombre, comme Infineon avec ses HammerHead ou ST Microelectrinics pour ne citer qu’eux.

A

la base, prévu pour servir les militaires de l’Oncle Sam, le GPS sert aujourd’hui à guider nos voitures. Il est devenu tellement populaire qu’on en vient au même constat qu’avec les téléphones portables. Prendre une voiture sans GPS aujourd’hui, c’est comme sortir de chez soi sans son téléphone. Impensable. Lire une carte ? Pff démodé. Planifier son voyage ? Un truc d’ancêtre. Aujourd’hui, on monte dans la voiture, on installe son PND et on dit au boîtier où on veut aller et… en voiture, Simone.

Naissance dans la douleur A l’origine, c’est pourtant une catastrophe majeure qui aurait décidé les Etats-Unis à « ouvrir » aux civils la technologie GPS. En 1983 un Boeing 747 de la Korean Air s’égare au-dessus de l’URSS. Les chasseurs soviétiques décollent, rattrapent le Boeing et, prétextant que c’était un vol espion, l’abattent et tuent ses 269 passagers. Suite à cette tragédie, puisque la Korean Air maintenait que l’avion avait un problème de localisation, Ronald Raegan décide de permettre aux civils de pouvoir utiliser gratuitement le Global Positioning System (GPS) que le Pentagone a déployé depuis 1978. La technologie étant à la base purement militaire, les Américains avaient décidé de dégrader le signal utilisé par les civils, ne leur laissant qu’une précision approximative d’une centaine de mètres. Mais dès 2000, Bill Clinton décide de suspendre cette restriction : les GPS civils ont désormais une précision comprise entre 5 et 10 mètres. Aujourd’hui encore, le GPS est toujours contrôlé par le 50th Space Wing de la base de l’Air Force de Schriever dans le Colorado.

TomTomania ? Mais peu importe, l’industrie s’empare de l’aubaine et en quelques années, le marché est couvert de produits en tout genre intégrant une puce GPS : dans les voitures, dans les PDA, dans les PND, dans les téléphones… et bientôt dans le collier des chiens. Bref, la puce GPS est devenue un objet du quotidien. Et une marque écrase le marché : TomTom. On aurait pu se dire qu’avec un

A l’image du P750 d’Asus, beaucoup de téléphones mobiles haut de gamme intègrent un GPS. Si ce genre de téléphone est moins pratique qu’un vrai PND pour naviguer en voiture (à cause de sa taille) ça peut dépanner. Par contre pour s’y retrouver en ville, en mode piéton c’est tout simplement un excellent moyen de s’orienter.

nom comme celui-ci le pari ne serait pas gagné… mais au final, le géant du secteur, c’est lui. En 2007, il a écoulé plus de 9,5 millions de PND (Personal Navigation Device, les GPS autonomes) et fait office de référence a priori incontestée. En Europe, TomTom, c’est 49 % du marché. A croire qu’il n’y a rien d’autre à part… TomTom. Cette domination est-elle justifiée ? C’est ce que nous allons essayer de vérifier. Mais pour bien juger, il est primordial de bien comprendre. En avant pour un peu de technique.

Trois en un Concrètement ce que l’on appelle abusivement GPS est en fait un agglomérat de trois technologies distinctes et complémentaires : on a d’abord le maillage de satellites fournissant le signal GPS par lequel la localisation est possible. On a ensuite la puce GPS qui permet de recevoir et de traiter ces signaux. Dernier point, la cartographie qui vous permet de voir où vous êtes. Commençons par le maillage de satellites. Il y a actuellement 24 satellites en orbite autour de la Terre, à une distance d’à peu près 20 000 km. Chacun de ces satellites est positionné de façon à ce que chaque récepteur GPS puisse voir au moins quatre satellites en permanence. A partir de quatre satellites captés, le récepteur GPS peut calculer votre position grâce à un processus appelé trilatération. C’est comme la triangulation, mais sans l’utilisation des angles. Chaque satellite envoie des ondes à intervalles réguliers. Chaque onde contient un message précis, incluant notamment l’heure précise d’émission du signal. Connaissant l’heure d’émission, la vitesse de l’onde et l’heure de réception, la puce GPS peut facilement calculer la distance qui la sépare du satellite. Pourquoi faut-il un minimum de quatre satellites pour trouver une position précise ? Le positionnement est comparable à une équation à trois inconnues. Plus une quatrième inconnue qui est celle de la marge d’erreur probable due au décalage entre la synchronisation du satellite et du récepteur ou aux perturbations engendrées par les couches de l’atmosphère.

Galileo ? Le GPS n’est pas le seul système de navigation par satellite. Les Russes ont leur Glonass, les Chinois le Beidou… et les Européens ? Ils devraient accoucher de Galileo d’ici peu. Le premier des 30 satellites constituant le maillage de Galileo a été mis sur orbite en décembre 2005. En théorie, les 29 autres devraient être lancés d’ici fin 2008. Les satellites seront placés à 23 000 km de la Terre et seront contrôlés par un quartier général bicéphale éclaté entre Londres et Toulouse, épaulé de deux centres de contrôle à Munich et Rome. Les appareils de demain pourront d’ailleurs être compatibles GPS et Galileo comme le laisse penser l’apparition de puces, comme la SiRF Prima, capables de traquer les deux réseaux de satellites.

Le système GPS est toujours géré par le 50th Space Wing depuis la base de Schriever dans le Colorado.

PC Update

I 109


Comparatif

Un bon GPS en 2008 L

es produits ont tellement évolué et les prix ont tellement baissé qu’aujourd’hui il faut être exigeant quant aux performances de son produit. On trouve de tout sur le marché, à tous les prix. Mais concentrons-nous sur les fonctions essentielles. Il est primordial qu’un bon GPS aujourd’hui sache capter les satellites en quelques secondes. Vous allumez le PND et le temps que vous boucliez votre ceinture, le guidage commence. Impensable avec les anciens modèles qui demandaient plusieurs minutes avant de localiser les satellites. La technologie s’appelle A-GPS, InstantFix… peu importe. L’important est de pouvoir démarrer vite. Concrètement, le système d’aide à l’acquisition fonctionne soit via le couplage à une puce GSM/GPRS/Edge sur les téléphones GPS, soit en téléchargeant régulièrement les mises à jour de l’éphéméride (les prévisions de positionnement des satellites pour la semaine à venir) sur le site Web de votre marque de GPS. Cette petite manipulation permet de gagner un temps précieux au démarrage. On passe ainsi d’une bonne grosse minute de balayage avec les anciens GPS, à moins de 10 secondes pour les nouveaux modèles. L’objectif pour 2008 chez SiRF, le plus connu des

Le fameux mode Reality View proposé par Navigon (et ici Becker qui est à base de Navigon) permet de se positionner simplement sur les files d’autoroute. Dans le cas d’échangeurs ou de bifurcations un peu sauvages, c’est pratique et permet d’anticiper les changements de voies pas toujours simples quand le trafic est dense.

Attention au pied Le PND, c’est une chose. Le système de fixation en est une autre. Force est de constater que certains La plus grosse fixation, celle de navigon constructeurs s’en (en haut) ne conviendra pas à tous les donnent à coeur joie pare-brises. Les autres sont plus proches de celle du Garmin (en bas). et pondent des pieds incroyablement compliqués et gros. La pauvre Twingo de compétition utilisée lors des tests n’a pas été capable de ranger beaucoup de pieds dans la boîte à gants. Certes, la Twingo a une petite boîte à gants. Mais certains pieds sont particulièrement monstrueux comme celui de Navigon qui doit certainement pouvoir servir de matraque ou ceux de Mio ou Becker incroyablement tordus. Avant d’investir dans un PND, assurez-vous que le pied pourra se ranger facilement dans votre sac, boîte à gants, etc. Le plus petit et le plus pratique ? Le plus petit, c’est TomTom, mais il doit être incompatible Twingo car il se détache de temps en temps… le plus pratique, par contre, se trouve chez Garmin.

110

I PC Update

Véritable « plus » la fonction Quick GPS Fix de TomTom nécessite une synchronisation régulière, mais permet en retours de capter les satellites quasi instantanément. Les prochaines générations de puces GPS SiRF Instant Fix II permettront de capter les satellites encore plus vite (en 5 secondes) sans avoir besoin de synchroniser les données avec un site web.

fabricants de puces de réception GPS, est de baisser cette durée à 5 secondes sans que le PDA n’ait besoin de se connecter au Web pour télécharger les mises à jour (technologie SiRF InstantFix II que Moi devrait être le premier à lancer).

… sait où vous êtes tout le temps, Une fois en route, vous passez sous un tunnel et perdez donc le signal GPS. La plupart des anciens modèles se contentaient d’un « signal GPS perdu » et

devaient se reconnecter une fois sorti du tunnel. Si vous avez une bifurcation dans le tunnel, ou en zone de mauvaise réception, c’est foutu. D’où l’implémentation de technologies capables de calculer approximativement votre position en se basant sur l’accélération, la vitesse et le mouvement pour calculer une position. C’est le cas d’un TomTom par exemple via la technologie EPT (Enhanced Positioning Technology). Attention, ce type de prestation n’offre qu’une estimation, et non une position


précise. De plus, il faut que le PND ait un point de référence avant la perte du signal pour calculer une position approximative… si vous démarrez dans un parking, par exemple, n’espérez pas une localisation. Quoi qu’il en soit, c’est un plus incontestable.

… vous affiche les voies, C’est la grosse tendance du moment : ce que Navigon appelle le Reality View et que TomTom n’a pas été le premier à adopter. Lorsque vous arrivez à hauteur d’une bifurcation d’autoroute par exemple, la vue change et passe en une sorte de mode de réalité subjective vous montrant une représentation des voies, des panneaux, et vous indique sur quelle file rester pour ne pas louper la bonne route. C’est tout simplement énorme. Ceux qui connaissent le chemin de retour de l’aéroport Roissy Charles de Gaulle vers Paris comprendront vite : deux autoroutes se chevauchent : l’A1 et l’A3. Et la signalisation sur ces routes est franchement mauvaise : on ne voit la destination qu’au moment où on arrive sur l’embranchement. D’habitude, ça donne des concerts de klaxon lorsque les non-autochtones réalisent qu’ils sont sur la mauvaise voie et se rabattent in extremis. Avec le Reality View, aucun souci. Le GPS vous parle français : il ne vous dit plus : « Tournez à gauche » ou « Bifurquez à gauche » ni même « Quittez à gauche », mais vous dit : « Restez sur les files de gauche » et vous montre les files où vous devez vous trouver. Quel confort !!! Et quel gain pour la sécurité ! Une fois n’est pas coutume, TomTom n’est pas le premier sur cette technologie et ne commencera à l’implémenter que sur ses modèles de 2008.

… gère la vitesse, Jouer avec les limites de vitesse en France, c’est un peu la roulette russe. Un radar automatique mal embouché et hop, vous êtes bon pour la photo. Dommage. Donc les GPS dignes de ce nom intègrent la position des radars fixes français (voire étrangers) et vous préviennent à l’approche de ces derniers. N’oubliez pas, si vous avez un GPS doté de cette fonction, de mettre à jour la carte régulièrement pour profiter d’une liste vraiment exhaustive. D’autre part, la plupart des GPS modernes doivent vous afficher la limite de vitesse du tronçon sur lequel vous circulez et vous avertir en cas de dépassement. A vous de configurer dans les préférences des appareils la limite de tolérance que vous voulez. Mais ce petit gadget sera très utile pour ceux qui ont le pied droit un peu lourd ou les distraits.

… et prévient des bouchons. Le TMC est une technologie qui se démocratise rapidement. TMC signifie Traffic Message Channel et permet d’obtenir des informations sur les perturbations du trafic par plusieurs biais. Le plus utilisé, le plus simple, c’est le TMC/RDS. Ces informations sont acheminées par les bandes FM des radios comme Autoroute FM ou Radio France (V-Trafic), NRJ, Radio Latina, Radio FG (Via Michelin Trafic). Certains GPS proposent une option GPRS/TMC. Dans ce cas, il faudra relier un téléphone en Bluetooth au PND et récupérer les informations TMC par le téléphone avec abonnement GPRS. C’est plus précis, mais bien moins pratique à vrai dire. Le principe du TMC est simple : il utilise un code (AlertC) fournissant les informations de base sur les perturbations : quel problème (bouchon, accident, manifestation, etc.), entre où et où (deux localisants entre lesquels se déroule le problème), le sens de circulation du problème (de tel endroit à tel endroit) et éventuellement, des informations complémentaires. Basique mais pratique. Le seul vrai problème avec le TMC reste le côté inesthétique du système, y compris sur certains modèles haut de gamme : l’antenne est souvent externe… Coller des ventouses sur votre pare-brise et faire courir l’antenne le long de ce dernier, cela ne réjouira pas tout le monde. Certains PND ont l’antenne TMC intégrée. Si c’est une fonction qui vous semble vitale, préférez ces modèles.

Fonctions supplémentaires Il va de soi qu’un PND peut faire beaucoup plus que vous guider. Ok, la plupart des PND peuvent lire des MP3 et afficher des photos et certains savent lire des vidéos. Mais bon, quand on conduit, on a généralement un autoradio et regarder les photos en conduisant peut être mauvais pour la santé. D’autres fonctions plus intéressantes peuvent être ajoutées, comme par exemple la fonction « kit mains libres » qui est pour le citadin moderne un vrai must. Non seulement, on ne perd plus la route des yeux, mais les deux mains restent sur le volant. Pratique. Les modèles les mieux fichus (encore le TomTom… eh oui) font ça instinctivement et parfaitement bien : il suffit d’avoir appairé une fois son téléphone et le PND pour qu’ensuite, si le Bluetooth du téléphone est activé, il prenne la main sur le téléphone. Dès que vous entrez dans la voiture, le GPS fait office de terminal téléphonique. Votre répertoire y est contenu, vous pouvez même numéroter depuis le PND.

La clarté de l’affichage est essentiel à une bonne navigation. Ci-dessus les écrans des cinq gros acteurs. L’itinéraire, les informations de bifurcation à venir, les aides à la conduite (limites de vitesse, etc.) doivent être claires. Pour nous c’est Navigon qui l’emporte.

PC Update

I 111


Comparatif

TomTom

Go 920T

Prix : 399 euros Les plus : QuickGPS Fix/EPT/Kit mains libres/Fonctionnement général exemplaire/Pied Les moins : Pas encore d’Advanced Lane Guidance !

C’est le haut de gamme de TomTom. Il est joli, il est cher mais qu’il est performant ! Vous l’allumez et en quelques secondes, il a verrouillé les satellites grâce à sa fonction QuickGPS Fix. Nous avons fait le test : en moins de 40 secondes, vous allumez le PND, il localise les satellites et il a calculé un trajet de plus de 550 km. Terriblement efficace ! Parmi les gros plus, la technologie EPT (Enhanced Positioning Technology) qui calcule votre position approximative en cas de rupture du signal GPS (tunnel, etc.), le transmetteur FM et surtout une fonction kit mains libres Bluetooth particulièrement réussie. Est-ce un plus ou un moins, TomTom livre une télécommande Bluetooth avec son 920T… c’est l’accessoire qu’on perd tout le temps et après lequel on passe son temps à courir pour régler le volume du PND. Pour le reste, le 920T est conforme à ce que l’on peut en attendre : c’est strict, rigoureux, solide, efficace… du grand TomTom. Au rang des regrets, on pointera du doigt l’ignoble antenne TMC externe qui fonctionne, mais qui est moche. Mais la plus grande lacune, c’est l’absence de la technologie Advanced Lane Guidance que l’on trouve chez Navigon ou Becker sous le nom de Reality View. Bref, le 920 est un excellent produit toujours compétitif et séduisant. Par contre, dans l’hypothèse où le 930 reprendrait exactement le 920 avec en plus l’Advanced Lane Guidance, ce serait le jackpot. Maintenant, le 930T coûte 100 euros de plus que le 920T… ça fait cher les nouvelles fonctions !

Becker

Traffic Assist 7928

Prix : 400 euros Les plus : Grand écran/Menu clair/ TMC/Kit mains libres BT Les moins : Lenteur de l’interface

C’est le plus gros des PND de ce comparatif. Avec son écran de 4,8 pouces, il écrase la concurrence. Est-ce la gestion de ce gros écran qui lui demande tant de ressources ? Le 7928 est en effet terriblement mou. Long à la détente. Il faut s’y faire… nerveux, passez votre chemin. Pour le reste, le Becker a tout : la visualisation des voies (le Reality View) hyperpratique, la fonction d’émetteur FM, la fonction kit mains libres, l’emplacement des radars automatiques, les infos trafic. Un petit mot sur la fonction kit mains libres qui est aussi efficace que celle proposée par TomTom : l’import du carnet d’adresses, le jumelage du téléphone, tout se déroule simplement et avec efficacité. Quant à la navigation, elle semble moins affectée par les problèmes de lenteur de l’interface (heureusement) ! Elle est fluide et profite grandement du Reality View. Bref, tout est bien, mis à part la lenteur excessive de l’interface.

Becker

Traffic Assist 7927

Prix : 220 euros Les plus : Finitions/Navigation/TMC/ Multimédia/Radars Les moins : Pas de Bluetooth/Prix

112

I PC Update

Le 7927 est beaucoup plus petit que le gros 7928, mais il est aussi et surtout beaucoup plus réactif. On se retrouve enfin avec un PND vivace et agréable à l’usage. Certes, il est petit et ses fonctions sont moindres, mais il a une excellente autonomie (nous avons fait un trajet de 4 heures d’un trait sans vider la batterie) et il est très clair. Seul vrai regret pour ce PND petit modèle, son prix qui le place parmi les modèles chers de cette catégorie. Initialement vendu près de 300 euros, ce qui est largement surévalué pour cette machine, on le trouve aujourd’hui aux alentours des 220 euros, ce qui est plus raisonnable, mais toujours très cher. A sa décharge, il intègre une antenne TMC interne, chose rare. Et les radars sont renseignés. Ouf ! De même, les fonctions multimédias sont relativement bien vues pour un petit modèle (photos, MP3 et vidéos sont lus). Mais curieusement, pas de Bluetooth, ce qui est dommage vu le prix. Quoi qu’il en soit, l’impression d’ensemble après utilisation est excellente… certainement la meilleure expérience avec les petits modèles de ce dossier.


NavigoN

7100

Prix : 300 euros Les plus : L’affichage le plus clair/ Reality View/Design/TMC/Kit mains libres BT Les moins : Pied vraiment gros/Pas de fonctions multimédias

Sobre, joli, le 7100 est un produit qui inspire confiance. Une fois allumé, on garde la même impression. L’interface est sobre, jolie, simple. Bref, tout est fait pour vous simplifier la conduite et c’est parfait. Point original, le Navigon 7100 est dépourvu de fonctionnalités additionnelles comme les outils multimédias divers. On conduit et on se concentre sur la route. Après tout, certains considéreront ça comme un plus ! Petit inconvénient, le 7100 est un peu long à la détente dans les menus (pas en navigation), mais on peut pallier un peu le problème en désactivant les animations de menu. Au nombre des choses très bien faites, notons la fonction kit mains libres Bluetooth, l’un des rares extra que s’offre Navigon. Au final, ce petit 7100 nous laisse une excellente impression : sobre, efficace, clair. C’est celui qui nous donne l’impression d’avoir l’affichage le plus clair. Les informations sont parfaitement dispensées, les cartes pas trop chargées et parfaitement lisibles… Bref, au volant, c’est un régal. Un très bon petit PND un peu cher à sa sortie mais que l’on peut s’offrir pour 300 euros aujourd’hui. Ah petit détail… enfin non, gros détail : le pied du Navigon est énorme. Proprement gigantesque. Un peu trop peut-être

Porsche Design

P9611

Prix : 595 euros Les plus : Design/Clarté de la navigation/TMC/Kit mains libres BT/ Reality View Les moins : Prix/Fonctions multimédias réduites (MP3)

Ce PND surfe sur l’image de marque Porsche Design. C’est vrai que l’aspect extérieur est réussi. Les matériaux sont à la hauteur et le mélange métalplastique souple est assez séduisant. Mais le coeur de la bête bat Navigon. Et c’est une excellente chose car du coup, le Porsche Design bénéficie de la même clarté exemplaire des cartes que celle qui nous a tant plu sur le Navigon 7100. L’interface est à peu près identique, à quelques détails près (surtout esthétiques), à celle du Navigon. C’est donc clair, sobre et efficace. Par contre, là où le Porsche Design fait mieux, c’est en termes de réactivité dans l’interface : le Porsche est propulsé par un processeur Intel bien plus performant que le pauvre Samsung du Navigon. Et ça se ressent ! Maintenant, reste à passer à la caisse. Si vous êtes un fan inconditionnel de Porsche, fermez les yeux, ce n’est qu’un mauvais moment à passer. Sinon, il est assez difficile de justifier le prix de ce modèle… plus cher qu’un TomTom haut de gamme et somme toute moins fonctionnel.

Garmin

Nüvi 710

Prix : 400 euros Les plus : Transmetteur FM/TMC/Kit mains libres Bluetooth Les moins : Pas de Reality View ou similaire/Carte France

Commençons la critique par un ressenti très personnel, très subjectif donc : les cartes Garmin sont trop fouillis, trop colorées, trop complexes. Mais le mode 2D a le mérite de grandement clarifier les choses. Et ceux qui veulent rester en mode 3D pourront utiliser une option fort bienvenue permettant de limiter le nombre de détails cartographiques affichés, qui contribuera aussi à éclaircir les cartes. Ceci reste très subjectif : certains (comme notre chef) au contraire adorent l’affichage Garmin… Ceci mis à part, le Garmin, c’est l’anti-Navigon. Ici les fonctions pleuvent. Les plus utiles comme les plus superflues. On a ainsi un convertisseur d’unités et de devises, un guide lexical, une calculatrice, un lecteur multimédia, une visionneuse de photos… woow ! Un grand merci pour le transmetteur FM, pour l’avertisseur de radars (même s’il manque parfois de précision… avertissant d’un radar à 90 km/h alors qu’on est sur une branche à 110… le radar en question étant sur l’autre bretelle d’autoroute limitée, elle, à 90 km/h), pour la fonction kit mains libres Bluetooth, pour le TMC. Une fonction amusante permet d’avoir les statistiques de son parcours… Bref, le Garmin Nüvi 710 est un PND qui ne fait l’impasse sur aucun sujet, qui essaie d’être aussi complet que possible avec un certain succès.

PC Update

I 115


Comparatif Mio

C620

Prix : 449 euros Les plus : Fluidité/Cartes 3D/TMC/ Bluetooth Les moins : Pas de Reality View ou similaire/Pas d’émetteur FM

Difficile de trouver à redire concernant le Mio C620. Allons-y de notre rengaine sur le mode Reality View, ou similaire, qui n’est pas intégré. Mais pour le reste, ce Mio est exemplaire. Rapide et doté de toutes les fonctions modernes, il a surtout comme originalité d’intégrer une cartographie en 3D capable d’afficher certains monuments en 3D, comme si on y était. Plus originale que vraiment utile, cette fonction laisse peut-être toutefois présager de futures cartes entièrement en 3D… Rêvons un peu, ça ne coûte pas cher. Pour le reste, le Mio offre une navigation claire, avec un volet latéral utile pour afficher les instructions de navigation, les alertes TMC, le téléphone, le contrôle de lecture de la musique, etc. C’est intuitif, efficace… réussi. Les fonctions annexes sont au rendez-vous, à l’exception de l’émetteur FM dont l’absence surprend sur un produit de ce niveau. Ceci dit, ça n’enlève rien à l’agrément d’un produit qui se classe à coup sûr parmi les meilleurs du moment.

Garmin

Nüvi 250

Prix : 155 euros Les plus : Prix/Radars fixes Les moins : Pas de TMC/Pas de Bluetooth/Pas d’émetteur FM/Pas de Reality View ou similaire

Il est petit, pas cher… absolument parfait pour les personnes ayant occasionnellement besoin d’un GPS pas trop sophistiqué pour des déplacements courts et ponctuels. Compact, il se range partout. Revers de la médaille, l’affichage est un peu petit. Par contre, sur ce petit modèle pas cher, on a quand même l’avertisseur de radars, un nécessaire pour la survie en ville. Mais pas de TMC. On fera avec les bouchons. Pas non plus de Bluetooth pour faire office de kit mains libres, et pas non plus de transmetteur FM. Le Nüvi 250 est un GPS, point barre. A ce prix-là, on aurait tort de lui reprocher son côté spartiate. Chose amusante pour un petit GPS comme ça, il est livré avec une cartographie européenne (appréciable). Bref, une bonne petite machine, fiable, basique et pas chère qui vous mènera à destination.

Route66

mini

Prix : 149 euros Les plus : Cartes claires/Prix plancher/Radars fixes Les moins : Options Bluetooth et transmetteur FM en option/Fonctions multimédias restreintes

116

I PC Update

Il est petit, mignon et bien fini. Avec ce petit PND, on se retrouve dans la catégorie du Nüvi 250 de Garmin. Là encore, c’est un produit destiné aux utilisateurs occasionnels ne cherchant qu’un moyen simple et efficace d’arriver à destination. Mission accomplie ? Oui. Les cartes sont claires et non sans rappeler celles de TomTom. On apprécie les alertes de radars préinstallés et la barre latérale recensant diverses informations de navigation. Au début, déconcertante, la saisie d’adresse ne propose pas un champ ville, puis rue, puis numéro. Vous saisissez les données en vrac, le moteur de recherche se charge de trouver à quoi correspond votre entrée. Par exemple, rentrez : 36 rue de Siam Brest et en quelques secondes, on vous livre deux options : soit la pharmacie qui s’y trouve, soit l’adresse physique basique. De déconcertant, ça en devient pratique. Mais Route66 a une botte secrète : le Wireless Car Kit. Si votre Mini vous convient comme ça, parfait. Si les fonctions Bluetooth et transmetteur FM vous manquent, ce kit (en fait, la base du pied de fixation) contient les interfaces d’upgrade nécessaires, on le trouve pour moins de 30 euros en ligne.


Route66

Maxi

Prix : 180 euros Les plus : Cartes claires/Prix plancher/Radars fixes Les moins : Options Bluetooth et transmetteur FM en option/Fonctions multimédias restreintes

Mini… Maxi… la différence entre les deux tient d’abord dans la taille de l’écran : 4/3 3,5 pouces pour le Mini, 16/10 4,3 pouces sur le Maxi. Les différences s’arrêtent là ; pour le reste, c’est identique. Mais le plus gros problème avec ce PND est ailleurs. A l’installation du logiciel, nous avons fait une fausse manipulation et naïvement cliqué sur Installer. Le programme s’est mis en tête de restaurer les données de la carte SD et a planté en pleine opération. Carte vierge, impossible à récupérer via le programme Route66. Il a fallu recopier à la main les données de backup livrées sur le CD… c’est un peu déconcertant. Mais la réparation tient la route, donc en voiture. Chose bizarre, le temps de calcul du même itinéraire est incroyablement plus rapide sur le Mini que sur le Maxi (le Mini a fini son calcul alors que le Maxi n’en est qu’à 13 %). Cette lenteur générale se retrouve d’ailleurs dans les menus du Maxi et pas dans ceux du Mini. Très étrange et très perturbant. Une fois lancée, la navigation suit son cap… mais l’impression générale est perturbée par les plantages du CD sous Windows et par la lenteur du Maxi. Aurait-on eu un modèle défectueux ?

ASUS P750 Pour être représentatif du marché de la navigation il nous fallait inclure dans ces colonnes un smartphone avec fonction GPS. Ces machines ne viennent pas concurrencer un PND, pas vraiment. Même si elles en ont les fonctions de base. Même si elles sont livrées avec un support voiture et une prise d’alimentation pour allumecigare. L’écran est trop petit pour être bien lisible en voiture. Mais… ces appareils trouvent toute leur utilité en mode piéton. Sortir un gros PND dans la rue tient du pari stupide. Par contre les dimensions restreintes d’un smartphone en font l’arme ultime du piéton égaré ou du touriste en visite dans une ville inconnue. Le seul gros problème du P750 est d’être livré avec Destinator comme logiciel de navigation… on fait bien mieux aujourd’hui. Heureusement, étant une plateforme Windows Mobile, on pourra y installer un autre logiciel plus réussi comme TomTom.


Comparatif

Choix de la rédaction

L Y a-t-il (enfin) quelqu’un pour détrôner TomTom ?

T

omTom reste le plus rapide, intuitif, efficace, qualitatif. Le gros plus de TomTom par rapport à la concurrence, c’est certainement la rigueur dont bénéficient les produits. C’est très carré, très bien pensé… on a l’impression de voir la différence entre une berline allemande haut de gamme et une bonne française. La seconde n’est pas mal, mais un petit cran en dessous de la première partout, ce qui, au final, donne un gros avantage à l’allemande. C’est pareil pour TomTom. Et même si le 920T n’a pas le Reality View (ou quel que soit le nom qu’on lui donne), il reste beaucoup plus agréable à utiliser que beaucoup de ses concurrents. Mais si TomTom domine encore, il le fait certainement de façon moins outrancière.

Des marques comme Mio, par exemple, arrivent à sortir des modèles tout aussi convaincants qu’un TomTom haut de gamme. La force d’un TomTom est d’avoir un coup d’avance et le 920 le montre bien avec son EPT (calcul de la position hors zone de couverture). Par contre, sur le Reality View… avantage Navigon qui a su doter ses modèles d’un argument de poids. Donc, les choix de la rédaction s’imposent : • TomTom 920T pour sa rapidité, sa précision, ses fonctions annexes parfaitement maîtrisées. • Navigon 7100 qui malgré ses lenteurs d’interface se concentre sur la navigation dont il enrichit l’expérience par un mode Reality View très utile. • Mio C620 qui est une excellente machine, rapide, réactive, bien fournie et avec une cartographie claire et originale. • Becker 7927 qui entre dans le classement grâce à un prix en magasins en baisse et à son excellent comportement général pour un PND 3,5 pouces.

Qu’est-ce que j’y gagne à troquer mon vieux GPS qui fonctionne encore contre un plus moderne ? Vous y gagnerez certainement en vitesse, la plupart des modèles modernes étant en SiRFStar III ou équivalent et les modèles A-GPS se répandant très vite. Avantage par rapport aux anciennes puces : on capte les satellites plus vite, les puces sont plus sensibles, plus précises, recaptent plus vite en sortie de tunnel, etc.

Vous y gagnerez aussi en aide à la conduite : le lexique des GPS d’aujourd’hui est plus clair et même si de temps en temps, on a droit à un : « Tourner à gauche » lorsqu’on est sur autoroute, la plupart du temps, les instructions sont plus claires, les affichages aussi, et des nouveautés comme le Reality View sont un vrai plus au positionnement sur la chaussée. De même, il est rare de trouver un modèle qui ne vous aide pas à préserver vos points en avertissant des dépassements de vitesse ou de la proximité d’un radar automatique. Beaucoup affichent même les limites de vitesse en temps réel, ce qui est pratique si on rate un panneau. Même les étourdis trouveront ça pratique. Pour ce qui est des fonctions multimédias, c’est autre chose… des machines comme les Navman en sont quasiment dépourvues mais après tout, le plus important pour un GPS, n’est-il pas de bien guider ? De ce point de vue, la politique Navman semble sensée et a au moins l’intérêt de ne pas tomber dans la course à l’armement que se livrent les autres : intégrer des dictionnaires, des convertisseurs de devises ou de distances, c’est bien, mais n’est-ce pas un peu trop marketing ? En tout cas, cela n’apporte rien à la navigation. Ce ne seront jamais que des petits à-côtés. Bref, un GPS aujourd’hui c’est plus rapide, plus clair, plus sûr… pourquoi se priver d’une upgrade de moins en moins onéreuse et de plus en plus efficace ?

Ecran

Format

GPS

Logiciel de nav

cartographie

Cartes fournies

Visualisation des files

calcul de position hors zone de couverture

Kit main libre BT

Transmetteur FM

TMC

Radars

Télécommande

Prix constaté

TomTom Go 920T

4,3”

16 : 10

SiRF Star III

TomTom

Télé Atlas

Europe / Amérique du Nord

non

oui

oui

oui

oui

oui

oui

400 €

Navigon 7100

4,3”

16 : 10

SiRF Star III

Navigon

NavTeq

France

oui

non

oui

non

oui

oui

non

300 €

Becker Traffic Assist 7928

4,8”

16 : 10

SiRF Star III

Navigon

NavTeq

Europe

oui

non

oui

oui

oui

oui

non

400 €

Becker Traffic Assist 7927

3,5”

4:3

SiRF Star III

Navigon

NavTeq

Europe

non

non

non

non

oui

oui

non

220 €

Porsche Design P9611

4,3”

16 : 10

μ-blox Antaris 4 SuperSense

Navigon

NavTeq

Europe

oui

non

oui

non

oui

oui

non

595 €

Garmin Nüvi 710

4,3”

16 : 10

nc

Garmin

NavTeq

France

non

non

oui

oui

oui

oui

non

300 €

Mio C620

4,3”

16 : 10

SiRF Star III

MioMap

Tele Atlas

Europe

non

non

oui

non

oui

oui

non

350 €

Garmin Nüvi 250

3,5”

4:3

SiRF Star III

Garmin

NavTeq

Europe

non

non

non

non

non

oui

non

155 €

Route66 Mini Regional

3,5”

4:3

µ-Nav

Route66

NavTeq

France

non

non

option

option

option

oui

non

149 €

Route66 Maxi Regional

4,3”

16 : 10

µ-Nav

Route66

NavTeq

France

non

non

option

option

option

oui

non

180 €

118

I PC Update


7 CPL 200 Mbps

Comparatif

kits

Décevant lors de nos premiers tests, le CPL 200 Mbps a-t-il progressé depuis sa sortie ? Nous avons réuni sept kits Ethernet afin de faire le point sur cette technologie très pratique pour créer des réseaux en s’affranchissant des câbles.

L

Jeremy PAnzetta

e CPL (Courant Porteur en Ligne) est une technologie permettant de mettre en réseau des PC, des box FAI ou des points d’accès Wi-Fi en exploitant l’installation électrique de votre domicile. Contrairement au Wi-Fi, le CPL ne possède pas de normes à proprement parler mais deux technologies concurrentes appelées HomePlug et DS2/UPA. Le HomePlug existe sous plusieurs standards, le HomePlug 1.0.1, le HomePlug 1.1 (ou 1.0 Turbo) et le HomePlug AV, offrant des débits théoriques respectifs de 14 Mbit/s, 85 Mbit/s et 200 Mbit/s. Le DS2 atteint lui aussi 200 Mbps. D’un point de vue physique, les adaptateurs CPL se présentent sous la forme d’une prise électrique équipée d’un port Ethernet ou d’un port USB. Ils fonctionnent au minimum par deux et n’ont besoin d’aucune configuration. En dehors des pilotes à installer pour les modèles USB destinés aux PC, il suffit de les brancher correctement pour qu’ils s’intègrent à un réseau existant ou s’associent à un autre périphérique CPL. Il existe néanmoins des incompatibilités entre les standards. Les adaptateurs CPL HomePlug 1.0.1 et 1.1 se mélangent très bien mais ne fonction-

120

I PC Update

Il est possible de créer des réseaux CPL distincts sur la même installation électrique en changeant simplement le nom et le mot de passe du réseau CPL.

nent pas avec des modèles HomePlug AV et DS2. Ils peuvent en revanche coexister au sein de la même installation électrique sous des réseaux distincts. De même, les technologies HomePlug AV et DS2 ne sont pas compatibles mais se tolèrent dans le même réseau électrique. Il est d’autre part préférable d’utiliser des composants

CPL venant du même constructeur bien que la théorie affirme le contraire.

Limitations électriques L’installation d’un réseau CPL est soumise à quelques règles d’un point de vue électrique.


La présence d’un disjoncteur différentiel coupe le transit des informations. En général, il n’y en a qu’un pour toute la maison et éventuellement un dédié à la salle d’eau, ce qui ne pose pas de soucis pour les pièces à vivre. Mais les installations récentes avec de multiples disjoncteurs différentiels limitent vos possibilités. Si votre disjoncteur est un modèle plus ancien, les données n’auront pas de mal à passer pour finalement atteindre le compteur électrique. Dans le cas où ce compteur est récent, à affichage digital, le signal CPL n’ira pas plus loin. En revanche, un vieux compteur « bleu » peut laisser passer les infos CPL. Une installation triphasée posera aussi des problèmes à moins qu’une personne qualifiée ne vous installe un coupleur de phase. Ensuite, il ne faut pas brancher les adaptateurs CPL sur des prises parasurtensions ou des onduleurs. Les filtres intégrés empêchent le passage des données. Certaines multiprises parafoudres comme celles de MGE offrent cela dit une compatibilité CPL sur toutes leurs prises ou sur une des 5 ou 8 disponibles. La manière dont sont connectés les adaptateurs au secteur a aussi une importance. Bien qu’il soit possible de brancher les boîtiers CPL sur des multiprises classiques, mieux vaut les brancher directement au mur ou passer par des blocs doubleurs/tripleurs sur lesquels vous connecterez d’un côté le bloc CPL et de l’autre une multiprise.

Et la sécurité ? Selon votre installation électrique, les données qui transitent sur un réseau CPL peuvent être interceptées. Pour protéger la communication CPL, tous les standards intègrent un système de cryptage. On utilise une clé DES de 56 bits pour le HomePlug 1.0.1 et 1.1, une clé AES de 128 bits pour le HomePlug AV et une clé 3DES pour le DS2. L’AES 128 semble être le plus sécurisé mais aucun n’est inviolable. Les deux derniers apportent tout de même un très bon niveau de protection contre un éventuel

Box FAI, routeurs, PC, consoles de jeu, les adaptateurs CPL Ethernet fonctionnent avec n’importe quel périphérique équipé de cette interface réseau.

pirate. Sur la plupart des adaptateurs CPL, le cryptage peut être activé grâce à un simple bouton placé sur le boîtier. Les constructeurs livrent aussi un utilitaire pour le modifier et créer, si besoin, plusieurs réseaux CPL distincts.

Usages et performances Si les adaptateurs CPL USB sont réservés aux PC, à partir du moment où un périphérique est équipé d’une interface Ethernet et d’un port RJ-45, il accepte sans problème un adaptateur CPL Ethernet. Disque dur multimédia, NAS, PC, console de jeu, switch/hub, routeur/routeur-modem, box FAI, platine DVD/DivX, chaîne hi-fi, ampli de salon, station audio multiroom ou point d’accès Wi-Fi, la liste est longue. Un réseau CPL n’impose aucune limitation d’usage comparé à un réseau Wi-Fi ou Ethernet : partage de connexion Internet, partage de fichiers, jeu en ligne, streaming audio/vidéo, VoIP, P2P, TV ADSL ou VOD, tout est permis. Les standards 85 et 200 Mbps exploitent le système de niveau de priorité QoS (Quality of Service) permettant d’optimiser le trafic du réseau CPL. La configuration QoS est souvent accessible via l’utilitaire livré afin de donner, par exemple, la priorité aux échanges de type TCP pour le transfert de fichiers, ou de type UDP pour le streaming audio/vidéo. Les performances d’un réseau CPL sont conditionnées par la qualité de votre installation électrique, sa structure, le nombre d’éléments CPL présents et leur distance les uns des autres. Un réseau CPL atteint une portée maximum d’environ 200 m et peut gérer en pratique jusqu’à 16 clients sur une même phase (255 en utilisant des répéteurs).

PC Update

I 121


Comparatif travers le réseau ou pour exploiter toute la bande passante d’une connexion Internet performante en fibre optique ou ADSL2+. Les joueurs seront quant à eux satisfaits car à quelques millisecondes près, les temps de réponse du CPL correspondent à ceux d’un réseau filaire et la connexion se montre stable.

Efficace, simple mais encore un peu cher

quement que la seconde. Comme vous pouvez le constater sur le graphique, les meilleurs kits atteignent 11 Mo/s, ce qui est confortable et bien mieux que nos premiers essais. Ces taux de transfert dépassent ceux des meilleurs échanges Wi-Fi et sont adaptés à tout type d’usages. Mais dès que le signal s’éloigne, ils chutent beaucoup. Ces faibles débits peuvent alors devenir problématiques pour lire une vidéo haute définition à

Le CPL est une bonne solution d’équipement réseau pour éviter les câbles qui courent le long des murs et une bonne alternative au Wi-Fi dans le cas d’un réseau d’intérieur. Un réseau CPL peut être plus ou moins performant que le Wi-Fi selon la portée, mais il peut atteindre des débits maximums supérieurs et se montre bien plus simple à installer. Il a aussi l’avantage de ne pas souffrir de microcoupures ou d’augmentation ponctuelle du temps de réponse. Dommage, en revanche, que la technologie 200 Mbps soit encore un peu chère puisqu’il faut compter environ 120-140 euros pour un kit de deux adaptateurs CPL Ethernet, et entre 70 et 90 euros pour le boîtier seul.

Les utilitaires de certains kits CPL peuvent gérer le QoS. Pour tester nos sept ensembles, nous

avons effectué trois tests. Le premier permettait d’avoir des conditions théoriques optimales puisque les deux adaptateurs étaient placés sur la même multiprise. Dans le second test, un des deux boîtiers était branché dans une pièce éloignée d’une dizaine de mètres. Puisqu’il n’est pas évident de connaître la longueur exacte des câbles électriques à travers lesquels passe le signal CPL, nous avons cherché une prise donnant les plus mauvais débits, elle s’est avérée être plus proche physi-

NetPlug 200+

Débits Mo/sec 3,2 3,2

Dlink DHPͲ301 1,9

Devolo dLan 200 AVeasy Starter kit

2

Bewan Powerline E200Plus 1,3

Comtrend Powergrid 902

1,3

Netgear HDXB101

1,25

Allnet ALL168205

Lea NetPlug 200+

0

2

Prise la plus "éloignée"

122

I PC Update

Technologie : HomePlug AV Connectique : Ethernet Prix : N.C. Site Web : www.leacom.fr

11

2,4

8,3

2,4

7,1

2,5

6

2,1

11

2,1 2,1

7 2,6

8,5 4

Autre pièce

Lea

6

8

Même multiprise

10

12

Les plus : Performances correctes, Dimension, Bouton de cryptage Les moins : Disponibilité

Les adaptateurs NetPlug 200+ de Lea ont l’avantage d’avoir une petite taille et de ne pas bloquer la prise voisine lorsqu’on les place sur une multiprise. Ils disposent de témoins lumineux dont un s’éclaire en rouge ou en vert selon que la liaison CPL est en haut ou bas débit. Un bouton est présent sur chaque bloc pour activer le cryptage qui peut aussi se configurer avec l’utilitaire fourni. Le kit offre des performances correctes face à la concurrence et est un de ceux qui tiennent le mieux les débits lorsque la distance augmente. Malheureusement, il est bien difficile de trouver ce produit en boutiques ou sur le Net, le site d’achat de Lea est quant à lui en construction.


Allnet

Netgear

All168205 Technologie : HomePlug AV Connectique : Ethernet Prix : 90 euros Site Web : www.allnet.de

HDXB101 Les plus : Prix Les moins : Performances, Dimension

Technologie : DS2 Connectique : Ethernet Prix : 145 euros Site Web : www.netgear.fr

Les plus : Bons débits max, Utilitaire QoS Les moins : Dimension, Performances en chute avec la portée

En dehors de son prix, le kit d’Allnet n’a pas beaucoup d’arguments. Ses performances sont moyennes, avec un débit qui chute à 1,25 Mo/s voire moins lorsque la distance devient importante, il faut passer par l’utilitaire pour activer le cryptage et la largeur des adaptateurs gêne les prises voisines. Pour économiser une trentaine d’euros, ok, sinon passez votre chemin.

Equipés d’une puce DS2, les adaptateurs HDXB101 de Netgear offrent les meilleurs taux de transfert maximums que nous avons pu obtenir dans ce dossier. Ils ont été atteints en modifiant les priorités QoS. Par défaut, les échanges étaient optimisés pour l’UDP, nous les avons placés sur TCP pour gagner presque 3 Mo/s. Mais ces boîtiers sont plus critiquables lorsque le signal CPL doit parcourir un long chemin. Dommage également que leur dimension ne soit pas plus compacte.

Bewan

Devolo

Powerline E200Plus Technologie : HomePlug AV Connectique : Ethernet Prix : 130 euros Site Web : www.bewan.fr

Les plus : Dimension, Bouton triple fonction Les moins : Débits max

Les Powerline E200Plus sont les plus petits adaptateurs de ce dossier. Leur bouton permet d’activer le cryptage, de réinitialiser le mot de passe ou d’ajouter un autre boîtier au réseau CPL. L’utilitaire livré donne aussi accès aux préférences de sécurité et permet de définir les priorités QoS selon trois profils Internet/jeux en ligne, audio/vidéo et VoIP. Un témoin lumineux rouge, orange ou vert indique quant à lui si la connexion est inférieure à 40 Mbps, entre 40 et 150 Mbps ou supérieure à 150 Mbps. Ses performances n’ont rien d’extraordinaire mais peuvent être suffisantes, ce qui en fait une bonne affaire, surtout quand certaines boutiques le vendent entre 100 et 115 euros.

dLan 200 AVeasy Starter kit Technologie : HomePlug AV Connectique : Ethernet Prix : 145 euros Site Web : www.devolo.fr

Les plus : Bouton de cryptage, Performances correctes Les moins : Dimension

Bizarrement, mais peut-être parce qu’il avait été utilisé sur un autre réseau auparavant, le kit Devolo est le seul dont la connexion réseau ne s’est pas faite automatiquement. Nous avons dû lancer l’utilitaire et entrer le numéro de sécurité du deuxième adaptateur. Le cryptage a en revanche été activé en appuyant simplement sur leur bouton. Le kit est livré avec trois autres programmes peu utiles pour effacer des données personnelles dans Internet Explorer, échanger des données et lister les adaptateurs CPL présents. Les performances sont quant à elles dans la moyenne mais pas suffisantes pour égaler celles du kit Dlink. Avec un prix de 145 euros en moyenne, le dLan 200 AVeasy Starter kit a donc du mal à se placer face à la concurrence.

PC Update

I 123


Comparatif

Comtrend

PowerGrid 902 Technologie : DS2 Connectique : Ethernet Prix : N.C. Site Web : www.comtrend.com

Les plus : Ne condamne pas de prise murale Les moins : Dimension, Performances

Les adaptateurs du PowerGrid 902 ont la particularité d’avoir une prise secteur et donc de ne pas condamner une prise murale. Ils sont en revanche trop larges pour ne pas cacher les prises voisines de la plupart des multiprises. Aucun logiciel n’était fourni (tout se fait via les deux boutons disponibles) mais notre modèle de test était un sample. C’est pour cette raison que nous n’avons pas pu avoir de prix et c’est peut-être aussi pour cela que ses performances étaient mauvaises.

Dlink

DHP-301 Technologie : DS2 Connectique : Ethernet Prix : 120 euros Site Web : www.dlink.fr

Les plus : Les moins : -

Avec des débits maximums de 11 Mo/s et qui restent au-dessus de 3 Mo/s sur des prises plus éloignées, le kit DHP-301 de Dlink est le plus rapide de ce comparatif. Aucun bouton de cryptage n’est présent, l’utilitaire ne permet pas de régler les priorités QoS et la dimension des boîtiers aurait pu être plus petite mais avec un prix moyen de 120 euros, le rapport qualité/prix est excellent.

Le choix de la rédaction Notre choix se porte sans hésitation sur le kit DHP-301 de Dlink grâce à de bonnes performances et un prix raisonnable. Vous trouverez des adaptateurs DHP-300 supplémentaires pour environ 80 euros. Le seul kit pouvant être une bonne alternative est le modèle de Bewan qui dispose d’un bouton triple fonction pratique, d’une taille compacte et qui est vendu aux alentours de 100 euros selon les promotions.

124

I PC Update


Test

Quatre ventirads pour une 8800 ventirads

Quel ventirad installer sur votre GeForce 8800 ? Tout dépend de ce que vous cherchez… silence, performances, les deux ? Voici quatre solutions alternatives pour vous débarrasser du radiateur d’origine.

A

près une longue attente, l’offre de radiateurs alternatifs pour les GeForce 8800 commence enfin à décoller. Mais les cartes les plus exigeantes en refroidissement, comme la 8800 Ultra, restent boudées par les fabricants qui, bien souvent, ne certifient leurs radiateurs que pour les cartes à base de G92 et éventuellement pour la 8800

GTS. Partant du principe que qui peut le plus peut le moins, nous avons décidé de monter tous les radiateurs pour 8800 que nous trouvions sur une 8800 Ultra et de voir ce qui se passait. Verdict : tous s’en sont sortis à merveille, sauf le seul qui était vendu comme compatible avec les 8800 Ultra ! Bien sûr, nous ne vous recommandons pas d’installer un radiateur

Niveau de pression sonore

Performances en burn

Zalman VF1000 +5v

Coolink GFXChilla

Zerotherm HC92 +5v

Zerotherm HC92 +12v

Coolink GFXChilla

Zalman VF1000 +12v

Origine

Zalman VF1000 +5v

Zalman VF1000 +12v

Origine

Thermaltake Duo Orb

Zerotherm HC92 +5v

Zerotherm HC92 +12v

Thermaltake Duo Orb

30

35

40

45

50

55

60

65

70

en db(a) à 12,5cm

Pour le silence, c’est Zalman qui est en tête. Le Zerotherm se débrouille bien, et on apprécie la performance du GFXChilla : en restant aussi discret que le radiateur d’origine, il offre les mêmes performances que les radiateurs Zerotherm ou Zalman lorsqu’ils sont à fond ! Le GFXChilla, sans être le plus silencieux, remporte donc la palme du meilleur rapport performances/bruit.

126

I PC Update

sur une carte plus puissante que celles qui sont prévues dans ses spécifications. Mais les trois radiateurs que nous avons installés sur la 8800 Ultra et qui ont réussi à battre aisément le radiateur d’origine ont fait la preuve de leur talent. Ils pourront être utilisés en toute confiance sur les cartes prévues par leur fabricant, avec des nets gains à la clé.

30

40

50

60

70

80

90

100

110

en °c mesurés sous 3DMark06

Coolink, Zerotherm et Zalman, tous les trios battent aisément le radiateur d’origine. On ne peut pas en dire autant du Duo Orb, dépassé par les événements.


Coolink GFXChilla Prix : 30 euros Compatibilité annoncée : jusqu’aux 8800 GS/GT/GTS 512 Mb Les plus : excellent rapport performances/bruit, tarif serré Les moins : ventilateur pas réglable, qualité de conception inférieure à la concurrence Excellente surprise que ce GFXChilla, un radiateur assez économique puisqu’il est affiché autour de 30 euros sur le Net. Certes, ses ailettes en aluminium ont moins d’allure que celles des concurrents en cuivre. De petits détails viennent aussi gâcher notre plaisir, comme ces caloducs pas très droits d’origine, qui font que le radiateur n’est pas parallèle à la carte graphique. On déplore aussi que le mécanisme de fixation serre trop fort le GPU, ce qui nous a forcé à le dévisser un peu tant la torsion de notre carte de test était inquiétante. Ces points négatifs étant évoqués, balayons-les pour nous concentrer sur les qualités du GFXChilla. Non seulement le petit nouveau offre d’excellentes performances de refroidissement, à égalité avec les meilleurs, mais il le fait avec un niveau sonore très raisonnable. Sans faire plus de bruit que le ventirad d’origine, il permet de gagner 12 °C sur notre carte de test. Le radiateur Zerotherm obtient les mêmes performances lorsque son ventilateur tourne à fond, mais au prix d’un bruit difficilement supportable… Pour un tarif serré, le GFXChilla est donc une très bonne affaire.

Thermaltake Duo Orb Prix : 35 euros Compatibilité annoncée : jusqu’aux 8800 GTS/GTX/Ultra Les plus : look Les moins : niveau sonore, performances, pas de régulation des ventilateurs Le Duo Orb est un superbe assemblage de deux radiateurs, reliés à une base en cuivre par deux caloducs. L’ajustement des pièces, l’éclairage des ventilateurs, tout est fait pour le plaisir des yeux ! L’installation se passe sans grande difficulté, si ce n’est qu’il faut jongler avec quelques petites pièces parfois difficiles à différencier. Le manuel est tout de même assez imprécis et mieux vaut avoir une certaine expérience de ce type de produits pour se lancer dans l’installation en toute confiance. Autre défaut notable, les deux ventilateurs sont alimentés par un unique connecteur Molex quatre points, ce qui rend difficile une régulation de leur vitesse de rotation. Le Duo Orb est de fait assez présent, pas au point qu’on puisse le qualifier de « bruyant », mais tout de même plus dérangeant que le radiateur d’origine de notre 8800 Ultra. Par ailleurs, sur cette carte, le Duo Orb offre des performances nettement inférieures à celles du radiateur fourni… certes, la 8800 Ultra est plutôt bien refroidie d’origine, mais cela ne justifie pas les 30 °C d’écart que nous avons mesurés ! Ce radiateur devra donc être réservé aux cartes plus anciennes, ayant de plus faibles besoins en refroidissement, car à elle seule, sa jolie bouille ne suffit pas à convaincre.

PC Update

I 127


Test

Zalman VF1000 + RHS88 Prix : 40 euros + 22,50 euros Compatibilité annoncée : jusqu’aux 8800 GTS Les plus : ventilateur réglable, silence à vitesse mini Les moins : tarif élevé si on ajoute le RHS88

Optionnel, le radiateur ZM-RHS88 améliore le refroidissement des puces de RAM sur les GeForce 8800.

La base, les caloducs et les ailettes, tout dans ce radiateur est fait en cuivre. Une fois le ventilateur allumé, le VF1000 est superbe, comparable au Thermaltake Duo Orb. L’installation est assez facile, nous n’avons rencontré aucun problème. L’unique ventilateur du VF1000 est doté d’une connectique trois points, qui permet de piloter sa vitesse de rotation avec un Zalman Fan Mate (fourni). Pour nos tests, nous avons utilisé la vitesse maximale puis la vitesse minimale. Lorsqu’il tourne à fond, le ventilateur s’avère efficace, sans pour autant être bruyant. Les performances de refroidissement sont parmi les meilleures, pour un niveau sonore à peine supérieur à celui du dispositif d’origine. Le ventilateur réglé au minimum, la température égale ce que l’on obtient avec le radiateur d’origine, mais le VF1000 est alors parfaitement silencieux. Impossible de l’entendre une fois qu’il est placé dans un boîtier fermé ! Le radiateur Zalman convient donc autant à l’overclocking qu’à la quête du silence. Pour les utilisateurs de 8800, Zalman recommande l’utilisation du radiateur ZM-RHS88 sur les puces de RAM. Ce gros morceau d’aluminium spécialement moulé vient refroidir la RAM des 8800 GTX, GTS et Ultra. Sur notre 8800 Ultra, le RHS88 fonctionne bien mais nous n’avons pas non plus noté de problème avec les petits radiateurs livrés d’origine avec le VF1000.

Zerotherm Hurricane HC92 Cu 8800 Prix : 50 euros Compatibilité annoncée : jusqu’aux 8800 dans toutes leurs versions Les plus : performances, ventilateur réglable Les moins : prix, niveau sonore à vitesse maximale Fabriqué tout en cuivre, le HC92 Cu 8800 est comme son nom l’indique un radiateur dédié aux 8800. Par rapport à la version de base, il incorpore donc des radiateurs spécifiques aux petites puces de la 8800 qui nécessitent un refroidissement. L’installation du HC92 se passe sans problème, elle est comparable en simplicité à celle des radiateurs Zalman et Coolink (celle du Thermaltake est un petit peu plus confuse). Tout comme le VF1000, le HC92 est fourni avec un régulateur permettant de faire varier la tension d’alimentation du ventilateur entre 5 et 11 V. Réglé au maximum, le HC92 offre des performances de premier ordre, mais vous ne supporterez pas longtemps son niveau sonore ! Réglé au minimum, il devient très discret, tout en conservant des performances comparables à celles du radiateur de base. Réussi dans l’ensemble, le HC92 Cu 8800 déçoit côté tarif : 50 euros, c’est 10 euros de plus que le Zalman VF1000 qui offre des performances équivalentes en faisant moins de bruit.

Choix de la rédaction F ranchement décevant, ce Duo Orb qui fait moins bien que le radiateur d’origine. En revanche, les trois autres se montrent convaincants. A compétence égale, le Zalman est moins cher que le Zerotherm,

128

I PC Update

c’est donc le VF1000 qui emporte la palme. Le meilleur rapport performances/bruit/prix est à chercher du côté de Coolink, dont le GFXChilla s’avère très séduisant.


Test

3 boîtiers, 3 prix, 3 choix boîtiers

Envie d’une nouvelle enveloppe pour votre PC ? Optez pour l’une des trois nouveautés du mois ! L’un ventile à fond, l’autre offre une grande capacité, tandis que le troisième marie élégance et taille modérée. Voici les derniers boîtiers A+ Case et Gigabyte.

L Les ventilateurs de 25 cm du boîtier A+ sont très (trop) bruyants, à fond.

Les boîtiers et les alimentations, c’est en quelque sorte le nerf de la guerre chez PC Update. En effet, alors que nos concurrents parlent parfois de processeurs, parfois de cartes mères, rares sont ceux qui vont jusqu’à tester « l’emballage » du PC, un sujet pourtant

important aux yeux de tout passionné de hardware. Fidèle à nos habitudes qui consistent à vous faire suivre l’actualité des boîtiers par l’essai régulier des nouveautés, nous avons décortiqué, pour ce numéro, le dernier boîtier A+ Case et les deux modèles Gigabyte les plus récents, dans l’ordre, Wind Tunnel, 3D Mars et Poseidon 310. Les trois sont des boîtiers ATX livrés nus (sans bloc d’alimentation).

Ça souffle A+ Case, le constructeur allemand, a habitué les consommateurs aux boîtiers équipés de gros ventilateurs de façade ou de porte latérale. Le modèle Wind Tunnel que nous testons aujourd’hui franchit une étape supplémentaire en proposant cette fois-ci deux mégaventilateurs de 25 cm chacun sur la porte, au niveau de(s) la carte(s) graphique(s) principalement. Ça changera des modèles précédents, comme El Diablo, le dernier testé qui avait un 25 cm devant… et un 33 cm (!) sur le côté. Les deux mégaventilateurs du Wind Tunnel sont placés en aspiration (ils absorbent de l’air frais à l’extérieur pour refroi-

130

I PC Update


dir l’intérieur de la machine) et sont illuminés de bleu lorsqu’ils tournent. Ces ventilateurs sont placés sur une excroissance du panneau latéral et, si l’on regarde sur la tranche située vers l’avant du PC, nous constatons que chacun des ventilateurs bénéficie d’un bouton de marche/arrêt ainsi que d’un potard permettant de régler la vitesse. Pour compléter la ventilation, le Wind Tunnel propose un emplacement de 120 mm à l’avant, en bas, et un emplacement de 120 mm à l’arrière, sous l’alimentation ; les ventilateurs ne sont pas fournis. Si la présence de nombreux trous dissimulés çà et là dans la caisse permet une extraction naturelle de l’air chaud, la présence d’une telle turbine en admission nous donne envie d’installer un ventilateur dédié à l’extraction. Si nous privilégions, bien sûr, l’installation d’un 120 mm pour maximiser l’efficacité (en l’occurrence, évacuer beaucoup d’air sans bruit), notons que l’emplacement arrière est également compatible avec les ventilateurs de 80 et de 92 mm. Seul l’emplacement de façade est muni d’un cache-poussière. C’est à se demander son utilité vu que les deux 25 cm n’en bénéficient pas, mais précisons que le 120 mm de façade aspire l’air à même le sol (pas un trou en bas de la façade) et l’on suppose

les modèles latéraux. Hélas, nous n’avons pas pu bénéficier de six mois d’essai pour confirmer ou infirmer cette analyse :) Avec un pareil attirail, vous pouvez vous douter que ce boîtier offre des dimensions généreuses. S’il ne bat pas des records, il occupe tout de même 54 cm de haut sur 24 cm de large, avec une profondeur de 56,5 cm. Il est muni de quatre pieds rétractables au cas où vous le jugeriez instable, mais à moins de le poser sur une moquette ultraépaisse, il tient très bien y compris avec les pieds non sortis. En termes de capacité, ce boîtier permet d’accueillir en façade jusqu’à cinq périphériques 5,25»et deux 3,5». En interne, une cage spéciale disques durs 3,5» est placée en position latérale et permet d’accueillir jusqu’à six disques, à condition de retirer le petit rangement plastique qui occupe trois emplacements et permet d’accueillir la visserie et les rails du boîtier. Si le boîtier est en tôle peinte en noir la plus classique, la façade est recouverte d’une matière synthétique en caoutchouc très agréable au toucher, matière que l’on retrouve sur quelques accessoires informatiques, des baladeurs ou même des téléphones, généralement baptisée « soft touch ». Une

A+ Wind Tunnel • Dimensions : 54 x 24 x 56,5 cm (H x L x P) • Matière : acier, façade « soft touch » • Emplacements 5,25» : 5 • Emplacements 3,5» façade : 2 • Emplacements 3,5» internes : 6 • Position des disques durs : transversale • Ventilation : 2 x 25 cm pan latéral (fournis), 1 x 120 mm façade (non fourni), 1 x 120 mm arrière (non fourni) • Fixation des lecteurs : sans vis (rails) • Fixation des cartes filles : sans vis • Fixation de la porte latérale principale : vis à main • Prix : 119 euros ventilation bruit système de fixation des cartes filles parfois problématique

la façade de haut en bas. Uniquement décorative sur la partie haute (la porte), elle dissimule en bas les diodes de fonctionnement du PC, mais aussi un petit afficheur LCD qui renseigne de la température interne du boîtier envoyée par une sonde que vous pourrez placer où bon vous semble. Sur le côté droit, nous trouvons les prises de façade, à savoir deux ports USB, deux prises son et une prise FireWire.

Un intérieur classique et efficace

Malgré sa taille compacte, le Poseidon peut accueillir une configuration haut de gamme sans problème. qu’il aspire plus de cochonneries que bande noire brillante verticale traverse

De retour à l’intérieur, nous ne trouvons rien de bien folichon, mais l’essentiel de l’attirail d’un boîtier de qualité est présent, à commencer par la fixation rapide des disques et des lecteurs optiques à l’aide de rails. Ceux-ci, de matière plastique, participent à la réduction des vibrations mais ne sont pas aussi efficaces que des petits caoutchoucs. Concrètement, si vous installez des disques durs un peu bruyants tels les Raptor à 10 000 tours par minute, à moins que vous ayez tout bien calé, vous subirez quelques vibrations désagréables. La place aidant, l’installation d’une configuration dans le Wind Tunnel est une formalité. La carte mère paraît toute petite ! Critiquons simplement le système de fixation « rapide » des cartes filles, une solution de levier unique pour toutes les cartes que nous retrouvons sur de nombreux boîtiers. Ce levier n’est pas compatible avec toutes les cartes, certaines cartes graphiques très volumineuses et surtout occupant deux slots posent problème, sans compter

PC Update

I 131


Test

Gigabyte Poseidon 310 • Dimensions : 44 x 20 x 50,5 cm (H x L x P) • Matière : caisse acier, façade alu • Emplacements 5,25» : 5 • Emplacements 3,5» façade : 2 • Emplacements 3,5» internes : 3 • Position des disques durs : transversale • Ventilation : 1 x 120 mm façade (fourni), 1 x 120 mm arrière (fourni) • Fixation des lecteurs : sans vis (rails et système de fixation rapide) • Fixation des cartes filles : sans vis • Fixation de la porte latérale principale : vis à main • Prix : 99 euros compact, sans restriction compatible watercooling externe silencieux intérieur acier uniquement

Les ventilateurs relativement silencieux placés à l’arrière des deux boîtiers Gigabyte éclairent en bleu.

La cage des disques durs du 3D Mars peut pivoter.

que le serrage n’est pas optimal. Il est toujours possible de le retirer pour utiliser des vis classiques, mais il faudra alors avoir un long tournevis pour passer à travers les trous situés côté gauche, en face des pas de vis. Pour la ventilation latérale, c’est très basique, il n’y a qu’un Molex à brancher. C’est pratique, mais ne comptez pas vérifier sous Windows la vitesse de rotation des ventilateurs et encore moins les ajuster par un système type nVidia ESA. A l’usage, vous apprécierez de pouvoir réduire la vitesse de rotation des deux ventilateurs latéraux, ces derniers étant très bruyants à pleine vitesse. A vrai dire, si vous vous contentez d’une configuration à peu près classique (une seule carte graphique, un ou deux disques durs), il n’est pas utile d’allumer le ventilateur le plus vers l’avant… du coup, autant se contenter de boîtiers plus classiques ! Vendu 119 euros, le Wind Tunnel est un petit peu cher selon nous, mais son originalité compense en partie ce tarif.

Gigabyte On prend les mêmes et on recommence Nous consacrerons moins de temps à l’essai des boîtiers Gigabyte. Non pas que nous en manquions, ou qu’ils soient inintéressants, mais tout simplement parce que nous les avons déjà plus ou moins testés au travers de leurs aînés ! Il est bien sûr normal

132

I PC Update

que les constructeurs proposent plusieurs évolutions d’un même boîtier, le Wind Tunnel dispose d’ailleurs d’un intérieur assez proche des autres références de la marque, mais dans le cas de Gigabyte, la similitude va très loin. En ce qui concerne le Poseidon 310, à l’exception de la façade qui change du tout au tout et du modèle du ventilateur de 120 mm arrière, c’est exactement le même que le Triton. Le 3D Mars est quant à lui très proche des nombreux boîtiers de la série haut de gamme inaugurée par le 3D Aurora. Revenons tout de même sur leurs caractéristiques. Le Poseidon 310 est un boîtier d’entrée de gamme pour Gigabyte (par rapport à la famille 3D), mais il s’agit déjà d’un modèle de milieu de gamme tant par sa conception que par sa qualité et son prix de 99 euros. Le modèle est assez compact, ce qui plaira aux nombreuses personnes qui souhaitent profiter d’un PC relativement discret, sans tomber dans les miniPC et autres barebones qui imposent certaines restrictions. Il mesure 44 cm de haut sur 20 cm de large et il est profond de 50,5 cm (44 x 20 x 50,5 à comparer aux 54 x 24 x 56,5 du A+ Wind Case par exemple). Malgré sa petite taille, le Poseidon 310 surprend par sa contenance ! Il offre cinq emplacements 5,25»en façade et deux 3,5», autant que le boîtier A+ ! En interne, il propose également une baie en posi-


tion latérale pour disques durs, celle-ci étant moitié plus petite (trois disques seulement). Bien que ça soit limite limite, nous avons réussi à loger une GeForce 9800 GX2 dans ce boîtier, le PCB arrive à moins d’un centimètre de la cage des disques durs, tout va bien. La ventilation est assurée par deux 120 mm, un placé en aspiration en bas de la façade (devant les disques durs) et un autre 120 mm placé en extraction à l’arrière, sous l’emplacement de l’alimentation. Notons que ces ventilateurs sont assez silencieux, ils deviennent parfaits si vous les branchez sur une carte mère proposant une régulation automatique de la vitesse. La porte latérale est munie d’une grande grille qui laisse pénétrer une grande quantité d’air, un point positif même si cette dernière n’est pas munie d’un filtre antipoussière. Le ventilateur arrière éclaire en bleu, du bleu que l’on retrouve sur la façade, une belle façade tout en alu évoquant la forme d’un casque de soldat. Vous trouverez sur cette façade deux prises USB, des prises son HD audio et une prise FireWire. Si la fabrication intérieure en simple tôle n’est pas la plus séduisante, nous retrouvons tout de même le système de fixation rapide des lecteurs 5,25» et les rails pour les 3,5» comme sur les modèles plus prestigieux. 99 euros, c’est le prix à payer pour un boîtier moyenne tour paré d’une belle façade alu. Le 3D Mars est, quant à lui, tout en aluminium. Affiché à 145 euros, c’est un modèle grande tour haut de gamme qui complète la série des 3D xxx de Gigabyte, dont nous connaissons plusieurs variantes de 3D Aurora, mais aussi le 3D Mercury avec watercooling intégré. Nous avons déjà fait l’éloge de ce modèle, en quelque sorte, qui bénéficie d’un intérieur très séduisant. Alu oblige, il est très léger (8 kg). Ses dimensions sont généreuses, 52,2 cm de haut par 20,5 cm de large et 56,6 cm de profondeur. Il peut contenir jusqu’à cinq périphériques 5,25», un 3,5» en façade et six 3,5» en interne. Notons d’ailleurs que la cage des disques durs peut être installée en position longitudinale ou transversale, selon votre souhait ! Contrairement aux deux modèles précédents, il n’a pas de porte de façade, vos composants seront donc immédiatement accessibles. Pensez à les acheter en argenté ou noir (les deux versions du boîtier existent, c’est également le cas pour

le Wind Tunnel et le Poseidon 310). La ventilation repose sur un 120 mm en aspiration en façade et deux 120 mm en extraction à l’arrière, lumineux. Par rapport aux modèles précédents, le 3D Mars inaugure deux ventilateurs de 80 mm à demi-hauteur placés sur la porte latérale de droite (celle côté carte mère), à proximité des disques durs. S’ils ne se sont pas révélés des plus bruyants durant notre essai, nous sommes tout de même inquiet quant à leur durée de vie. Vous pourrez, au pire, ne pas les brancher. Pour la porte principale (la façade opposée), outre son système d’ouverture rapide (sans vis), notons la présence d’une grille permettant d’aérer l’ensemble de la configuration. Si vous êtes exhibitionniste, Gigabyte livre sans supplément de prix une façade plexiglas transparente plutôt que la grille ! Notons la présence à l’arrière de deux trous destinés à faire passer des tuyaux de watercooling, comme c’est toujours le cas chez Gigabyte (y compris sur le Poseidon 310). Avec un silence de fonctionnement tout à fait satisfaisant, une superbe qualité de finition

et un design intérieur des plus correct, c’est encore une réussite. Cela dit, nous trouvons aujourd’hui les modèles précédents (3D Aurora et 3D Aurora 570) quasiment aussi bons entre 100 et 130 euros, c’est encore mieux.

Gigabyte 3D Mars • Dimensions : 52,2 x 20,5 x 56,6 cm (H x L x P) • Matière : alu • Emplacements 5,25» : 5 • Emplacements 3,5» façade : 1 • Emplacements 3,5» internes : 6 • Position des disques durs : transversale ou longitudinale au choix • Ventilation : 1 x 120 mm façade (fourni), 2 x 120 mm arrière (fournis) • Fixation des lecteurs : sans vis (rails et système de fixation rapide) • Fixation des cartes filles : sans vis • Fixation de la porte latérale principale : sans vis • Prix : 145 euros qualité de fabrication et finition compatible watercooling externe silencieux pas de porte de façade

PC Update

I 133


Test

GeForce 8800M GTX : la carte graphique mobile ultime

Le portable ouvert… le gros bloc de cuivre au milieu de la machine, c’est bien la carte graphique, oui, avec son refroidissement propre. Impressionnant, non ?

carte graphique

Une fois débarrassé de sa gangue de cuivre, voilà le module MXM, avec le GPU en son centre et les puces de mémoire.

134

I PC Update

Une vraie carte graphique dans un portable... jusqu’à présent ça n’avait jamais été qu’un rêve. En passe de devenir réalité avec la récente mise sur le marché des premiers portables intégrant une 8800M GTX.

O

n en entend parler depuis longtemps ; depuis le dernier trimestre 2007 pour être exact. Nous arrivons enfin à mettre le grappin sur une machine (un joli portable des gammes « Made by Surcouf ») intégrant cette fameuse GeForce 8800M GTX. Le summum de la carte graphique mobile d’aujourd’hui. Et pour cause… sur le papier, la puissance délivrée par le 8800M GTX est sans commune mesure avec les (rétrospectivement) piètres arguments avancés par le 8700M GT. Le bond en avant est fulgurant. Si les fréquences de la mémoire et du GPU semblent plaider en faveur du 8700M GT, c’est bien le nombre d’unités de calcul et le bus mémoire qui donnent au 8800M GTX tout son potentiel. De 32 unités de calcul sur le 8700, on passe à 96 sur le 8800M GTX, soit trois fois plus ! Quant au bus mémoire, il passe de 128 bits sur le 8700 à 256 bits. Bref, on retombe sur une fiche technique bien plus proche de celle des GPU de PC de bureau que de celle des sempiternelles puces mobiles asthmatiques et poussives aux noms évoquant faussement les versions desktop. Non seulement les caractéristi-

ques mais aussi les performances nous rapprochent plus du monde desktop que du mobile. Oui, ce GPU permet de jouer. Oui, il permet de bien jouer, en poussant les curseurs à fond et en haute résolution. Enfin !!!

Intérieur cuivre En termes d’intégration par contre, le 8800M GTX n’est pas une mince affaire. Pas plus que le portable capable de l’accueillir. Notre machine de test est un pur « desktop replacement », un bon gros 17 pouces bien épais et bien lourd. Qu’importe… ce portable n’est pas fait pour rentrer dans le sac à main de madame, mais pour cracher du FPS. Un tournevis… quelques vis à faire sauter et on entre dans les entrailles de la bête. Et là, surprise : si les voitures haut de gamme ont un intérieur cuir, ce notebook a, lui, un intérieur cuivre. Il faut dire que le module MXM de la 8800M GTX est engoncé dans un logement en cuivre assez impressionnant. Le tout est relié par un caloduc à un dissipateur et à un ventilateur indépendants de ceux du CPU. Monstrueux. Et assez bruyant


World in Conflict

Le M571Ru de Surcouf qui nous a servi de base pour ce test. A 1 999 euros, son prix est plutôt compétitif pour un vrai portable de gamer.

72

41

8800GT 1 Go

57 30 54

31

9600GT

42 25 51

30

9600GT OC (700/1000)

46 27 50

31

8800M GTX + T8300

42 23 60

37

8800M GTX + T9500

47 25 0

10

1280x768 moyen

20

30

40

1280x768 très élevé (FSAA 4x / Aniso 16x)

50

1920x1200 moyen

60

70

80

1920x1200 très élevé (FSAA 4x / Aniso 16x)

Là encore, la 8800 mobile montre toute sa puissance et rivalise avec les cartes pour PC de bureau milieu de gamme.

aussi… dès qu’on monte en charge, le portable crache des images et des décibels : dans un environnement de travail, de 38 dBA, on passe à 55 dBA à hauteur de visage… ça souffle ! Mais là encore, pour ce genre de machines, est-ce grave ? En situation de jeu, on utilisera soit des enceintes, soit un casque et au pire, on empêchera son coloc de dormir… rien de grave quoi.

Ne boudons pas notre plaisir… très sympas. Mais le portable tenant facilement de bonnes résolutions, on ne peut que se demander si la sauce n’aurait pas été encore meilleure avec un peu plus de mémoire dédiée. Quoi qu’il en soit, voir Crysis tourner sur un 17 pouces, ça fait chaud au coeur. Pour peu, on verserait une larme.

8800M GTX

8700M GT

8800 GT

9600 GT

Processeurs de flux

96

32

112

64

Fréquence de base (MHz)

500

625

600

650

Fréquence du shader (MHz)

1 250

1 250

1 500

1 625

Fréquence mémoire (MHz)

800

800

900

900

Quantité de mémoire

512 Mo

512 Mo

512 Mo

512 Mo

Interface mémoire

256 bits

128 bits

256 bits

256 bits

Crysis 33,17

27,06

8800GT 1 Go

21,18 16 34 16,34

Comme un desktop Parlons un peu performances… la fiche technique est prometteuse, le refroidissement semble suggérer une carte qui pousse très fort. Et c’est le cas. Les performances sont bien au rendez-vous. Elles sont même bien à la hauteur car que ce soit en jeu ou sous 3DMark 2006, on accroche une GeForce 9600GT sans problème et la 8800 GT avec 1 Go de mémoire n’est pas si loin que ça. Pour un portable, c’est bluffant. Finalement, le bruit et la lourdeur du portable sont justifiés par un rendu en jeu exceptionnel… et c’est bien là l’essentiel. Inutile de préciser que cette génération de GPU mobiles fait prendre un très gros coup de vieux à l’ancienne. Donc si vous voulez investir dans un portable de joueur et que vous vous posez la question… arrêtez de cogiter. Par contre, avec une telle puissance graphique, il faudra veiller à avoir un gros CPU. Nous avons fait les tests avec le T8300 d’origine de la machine, puis avec un T9500. Résultat : un petit CPU (même si le 8300 n’est pas franchement un nain) bride le tout. N’hésitez pas à associer un gros Penryn à cette carte graphique, elle ne s’en portera que mieux. Bref, en termes d’expérience, ces quelques jours passés en compagnie de ce GPU gros calibre ont été plutôt sympas.

28,99

23,97

9600GT

17,38 14,45 29,46

26,32

9600GT OC (700/1000)

18,91 15,58 28,04

23 29 23,29

8800M GTX

17,05 13,83 28,97

24

8800M GTX + T9500

17,49 14,05 0

5

1280x960 High/no AA

10

15

1280x960 High/AA16x

20

1920x1200 High/no AA

25

30

35

1920x1200 High/AA16x

Pas de miracle… la 8800M GTX n’est pas la carte qui fera tourner Crysis à une très haute résolution avec tous les détails à fond. Mais elle fait jeu égal avec les cartes desktop et n’est distancée que par la 8800 GT 1 Go. Belle performance !

Nom de code : M571Ru Concernant le portable en lui-même, il est commercialisé par Surcouf sous la référence M571Ru à 1 999 euros. Pour cette somme, on a un monstre. Outre la carte graphique sur laquelle nous nous sommes déjà prononcé, on est gratifié d’un T8300 (n’hésitez pas à mettre quelques euros de plus et à passer à un T9xxx), de 3 Go de DDR, d’un disque dur de 320 Go de 5 400 tours ; la dalle LCD 17 pouces, quant à elle, affiche une résolution de 1 920 x 1 200. Pour ce prix, on a aussi du Wi-Fi N, une webcam et du Bluetooth. Au final, on se retrouve avec un ratio puissance-équipement-prix du meilleur niveau.

3D Mark 2006 11077

8800GT 1 Go

4056 9927

9600GT

4499 10478

9600GT OC (700/1000)

4855 9246

8800M GTX + T8300

4233 9484

8800M GTX + T9500

4282 0

2000

1280x1024 no AA

4000

6000

8000

1920x1200 / AA8x / Aniso 16x

10000

12000

3DMark donne un net avantage à la 8800 GT dans les basses résolutions, mais les écarts se resserrent dès que l’on monte dans les résolutions et dans les niveaux de filtrage. Votre PC de bureau fait-il aussi bien que notre portable ?

PC Update

I 135


Test

Un PC home cinéma de rêve PC home ciné

Certains fantasment sur des plates-formes ultrapuissantes comme le Skulltraill, d’autres préfèrent rêver du PC home cinéma parfait. A travers le test du magnifique boîtier S21T Origen AE, voici une configuration de salon qui va vous mettre l’eau à la bouche.

D

ifficile de ne pas être impressionné par le S21T d’Origen AE. Look épuré, poids de presque 10 kg, coque aluminium de 5 mm d’épaisseur, écran tactile de 12,1 pouces intégré, ce boîtier attire forcément le regard. Que de la frime ? Sans aucun doute ! L’écran étant trop petit pour regarder un film de son canapé, il sera surtout pratique pour exploiter le PC en mode hi-fi ou serveur sans avoir à utiliser de clavier, de souris et de téléviseur. Mais il faut bien l’avouer, quelle classe d’avoir un tel objet intégré à son installation home cinéma,

Trois ventilateurs sont présents, un de 120 mm en extraction à l’arrière, deux de 92 mm soufflant sur les disques durs.

136

I PC Update

surtout lorsqu’il propose d’excellentes finitions et d’autres bonnes idées de conception. Le constructeur a en effet eu le souci du détail et a, par exemple, pensé à limiter les vibrations du boîtier. La plupart des vis sont équipées de rondelles, celles des ventilateurs également, le capot supérieur repose sur des bandes de mousse et chaque disque dur vient se glisser dans les baies à l’aide de trois vis à main recou-

Le panier de la carte mère est amovible pour faciliter le montage.

vertes d’un épais caoutchouc. Pas moins de dix emplacements verticaux (2 x 5 baies) sont disponibles pour les unités de stockage et on compte trois ventilateurs discrets dans le boîtier, un de 120 mm en extraction à l’arrière et deux de 92 mm soufflant sur les disques durs par-dessous. Pour donner encore plus de style, l’écran de 12,1 pouces est motori-


Caractéristiques techniques • Nom : S21T • Constructeur : Origen AE • Ecran : TFT 12,1 pouces tactile VGA (1 280 x 800 en natif, jusqu’à 1 920 x 1 200) • Support carte mère : ATX et microATX • Support alimentation : ATX • Ventilation : 1 x 120 mm, 2 x 92 mm • Baies : 10 x 3,5 pouces, 1 x 5,25 pouces • Slots d’extension : 7 • Autres : lecteur de cartes mémoire, 2 USB + FireWire + casque/micro en façade • Dimensions : 435 x 220 x 390 mm • Poids : 9,8 kg • Coloris : argent ou noir • Prix : 950 euros • Site Web : www.origenae.com Deux télécommandes, rallonges IR, nappes SATA coudées, adaptateurs d’alimentation Molex/SATA, vis caoutchoutées, le packaging contient tout le nécessaire.

sé. Un bouton dissimulé sous le boîtier permet de baisser ou de ranger l’écran, derrière lequel sont placés le lecteur optique, un lecteur de cartes mémoire et quelques connectiques. Un stylet est aussi intégré dans la coque du moniteur, ainsi que les boutons nécessaires pour l’allumer, l’éteindre et modifier son contraste et sa luminosité. Afin de faciliter le montage, le S21T dispose d’un panier coulissant pour fixer la carte mère et les cartes filles en dehors du boîtier. Le constructeur livre aussi les nappes SATA coudées nécessaires, des adaptateurs d’alimentation Molex/SATA, une petite façade en aluminium à fixer sur le lecteur optique et une paire de gants blancs. Deux récepteurs infrarouges intégrés en façade s’associent aux deux télécommandes fournies. La première permet de contrôler l’écran (mais pas son moteur), la deuxième est plus complète, programmable, et déjà paramétrée pour Windows XP/ Vista Media Center.

rentrent pas dans le boîtier car ils peuvent être gênés par le lecteur optique. La hauteur maximale du dissipateur est limitée à environ 13 cm à partir de la carte mère, soit un peu moins

Faibles nuisances sonores Conception/finitions Ecran tactile de 12,1 pouces motorisé 10 emplacements HDD Lecteur de cartes mémoire IR intégré + télécommande Prix Aménagement obligatoire avec des cartes graphiques de longue taille Qualité de l’écran à améliorer Hauteur limitée pour les ventirads CPU

Dix emplacements verticaux pour les disques durs sont disponibles (deux baies de cinq unités).

Configuration type La plate-forme GeForce 8200 n’était pas encore sortie au moment de ce test mais comme vous avez pu le lire dans notre preview du mois dernier, sous réserve qu’elle arrive avec des drivers bien finalisés, elle sera idéale pour nos PC de salon. Nous avons donc équipé le S21T d’une carte mère Gigabyte GA-MA78S-DS3H, d’un Phenom X4 9500, de 2 Go de DDR2, d’une alimentation Seasonic S12II 500 W, d’un disque dur Samsung F1 de 1 To et d’un lecteur de Blu-Ray discs BDC-202 Pioneer. Tous les ventirads CPU ne

en comptant l’épaisseur du socket et du processeur. Dans notre cas, il fallait penser à choisir une carte mère avec deux sorties vidéo, une pour l’écran interne, l’autre pour la TV HD. Elle devait également posséder au moins trois connecteurs ATX 12 V, trois/quatre broches en plus de celle du ventirad CPU pour connecter les ventilateurs du boîtier, ce qui n’est pas le cas de toutes les cartes mères microATX, par exemple. Cette configuration est une base qu’il est bien sûr possible d’enrichir : plus de dis-

ques durs (mais aussi plus de bruit), un tuner TNT PCI ou USB, une carte satellite FireDTV DVB-S2 FireWire, une carte son haut de gamme pour passer éventuellement par des sorties audio analogiques multicanaux de qualité sur son ampli et bien sûr, une carte graphique. Car grâce à la fonction Hybrid SLI, il est possible d’ajouter une carte 3D puissante pour jouer. Celle-ci pourra être activée ou désactivée électriquement à chaud avec l’Hybrid Power. Nous avons donc essayé nos 9800GX2 et 9800GTX mais ces gran-

PC Update

I 137


Test

L’écran de 12,1 pouces motorisé offre une bonne précision tactile et peut monter jusqu’à 1 920 par 1 200.

Les disques durs se glissent dans la baie grâce à trois vis à main recouvertes d’un épais caoutchouc.

des cartes ne rentrent pas par défaut dans le boîtier car elles pénètrent dans la cage des disques durs et viennent buter contre le ventilateur de 92 mm. Mais en retirant ce dernier et en sacrifiant quatre des cinq emplacements pour disques durs, l’intégration de la carte graphique reste possible.

La gestion du biécran

Les cartes graphiques de grande taille, telles que la 9800GX2, rentrent, à condition de sacrifier quatre emplacements pour disques durs et de supprimer le ventilateur de 92 mm de la baie.

138

I PC Update

L’écran tactile de 12,1 pouces possède une résolution native de 1 280 par 800 et peut monter jusqu’à 1 920 par 1 200 mais ces résolutions plus élevées manquent de netteté et de précision. Le 1 280 par 800 est bien adapté à cette taille d’écran et suffisant pour utiliser des applications Media Center ou un navigateur Internet. La qualité de l’écran n’est pas irréprochable, notamment au niveau

de l’homogénéité de la luminosité, du rendu des couleurs un peu ternes et des angles de vision mais elle est là encore suffisante pour ce type d’usages. Puisque le mode clone avec deux écrans ne peut pas s’exploiter avec des résolutions différentes, il sera impossible d’avoir une résolution native à la fois sur l’écran interne et sur une TV HD ou un vidéoprojecteur (à moins naturellement que ces afficheurs supportent la même résolution native). Il faudra donc utiliser les écrans individuellement ou avec l’extension de bureau des pilotes graphiques. En biécran, les icônes et la barre des tâches de Windows seront, par exemple, placées sur l’écran interne et le lecteur vidéo sur la TV HD. Grâce aux pilotes For-

ceWare, il sera possible de créer des profils d’affichage : un pour activer uniquement la TV HD, un pour avoir les deux écrans, un pour l’écran de 12,1 pouces seul. Vous pourrez passer d’un profil à l’autre rapidement en double cliquant sur leur raccourci placé sur le bureau.

Oui, il les vaut ! A 950 euros, le S21T sera trop cher pour la grande majorité d’entre nous, il s’agissait surtout de vous présenter ce qui se fait de mieux en boîtiers HTPC. Ce prix semble excessif mais en considérant son excellente qualité de fabrication, sa conception intelligente, son équipement, sa bonne dissipation thermique et ses faibles nuisances sonores, vous en aurez pour votre argent.

L’entrée VGA de l’écran interne est déportée sur un slot d’extension du boîtier.


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.