Les Cahiers de l'EPSI - N°24

Page 1

N°24 - 2e semestre 2009

http://www.epsi.fr/ http://www.epsi.fr/

La revue des élèves-ingénieurs à destination des entreprises


Sommaire

Microsoft

Microsoft OSLO, une réponse aux enjeux SI..............................4 Cloud Computing, MS Windows Azure......................................6 Dossier : GreenIT

La Green IT comme nouveau modèle du SI..............................10 MS System Center, certifié Green IT.........................................13 Décisionnel

Alernative OpenSource de l’extraction de données..................14 Technologies Novell, gestion des workloads dans les datacenters..................18 Mobilité & sécurité : adoptez Globull.......................................22 Culture

Le Libre......................................................................................24

Les cahiers de l’EPSI n°24


Les Cahiers de l’EPSI n°24

Editorial L’occasion était toute trouvée, l’opportunité s’offrait à nous: sortir pour la première fois un numéro numérique des « Cahiers de l’EPSI » alors que le dossier principal de cette édition 23 faisait justement la part belle aux technologies vertes. La forme se devait de suivre le fond. Nos élèves-ingénieurs se sont donc lancés cette fois dans une aventure de presse électronique, dans une conception numérique qu’on dit plus «propre» et «écologique» ; une autre manière aussi de faire, de concevoir et d’imaginer la communication. Pour le reste, rien de changé : la volonté de présenter des articles qui ont l’ambition d’être au fait des dernières innovations et recherches en sciences de l’informatique. Nos valeurs générales restent, elles aussi, inchangées ; celles que nous revendiquons fièrement à l’EPSI et qui forment notre identité spécifique. Pas une école d’ingénieurs comme les autres : en synergie constante avec les entreprises et leurs besoins évolutifs, en situation et dynamique professionnelles permanentes, en mobilisation quotidienne des professeurs et étudiants sur des projets en prise directe avec le « monde réel » (le dernier numéro des « Cahiers» que vous avez sous les yeux en est encore une preuve concrète). C’est dans cet esprit que nous invitons nos élèves-ingénieurs à oser, à innover et à expérimenter dans un cadre pédagogique lui aussi très novateur et dans des associations tournées vers les applications du futur : entreprenariat, junior-services, laboratoires de recherche, engagements citoyens, missions humanitaires, pôles de communication…

Promouvoir l’esprit d’entreprise, appréhender le monde du travail tel qu’il va et tel qu’il sera : voilà nos ambitions, nos passions et notre raison d’être. Bonne lecture et rendezvous au 1er semestre 2010 pour une nouvelle édition des « Cahiers », papier et numérique.

José MONIEZ

Les cahiers de l’EPSI n°24 EPSI ARRAS:

Espace Technopolis - 23-25 rue du dépôt - 62000 ARRAS Tél : 03.21.71.33.34 Fax : 03.21.71.49.93 Site Web : http://www.epsi.fr

Directeur de la publication : José MONIEZ

Conception:

Nicolas ZURINI, Guillaume THOMAS

Commerciaux:

Nicolas BOUVIER Jean-Baptiste DUJARDIN Yann GILLIOT Justin LAVOGEZ Sophie LEQUIEN

Rédacteurs:

Les élèves -ingénieur de fin de cycle (BAC +5)

Président de l’association: Benoit VIENNE

Revue Semestrielle


Microsoft

TechDays 2009 :

MS OSLO « Une réponse aux enjeux SI» L’UML (Unified ModeSteve Cook, à l’origine de l’OCL, ling Languages) est encore de représente désormais Microsoft nos jours très utilisé et on le reau sein de l’OMG. Il est leader marque par les sondages à mains du RFI « Future of UML ». Il levées effectués dans la salle prévoit plusieurs améliorations de conférence de ces Techdays majeures: 2009: la quasi• De la prétotalité de l’amcision pour «UML est donc une phithéâtre utilise réduire l’amUML et très peu des attentes du mar- biguïté. le DSL de Mi- ché, Microsoft le sait • L’interopécrosoft. UML est et a donc décidé de rabilité. donc une des at• La prise en s’y investir» tentes du marché, compte du Microsoft le sait .NET. et a donc décidé de s’y investir pour rendre l’UML moins amMicrosoft a voulu nous montrer bigu. sa volonté de passer du logiciel au système d’information avec Depuis septembre 2008, OSLO. Il veut un parc de logiciel 4

Les cahiers de l’EPSI n°24

axé sur la modélisation. L’intégration d’UML était donc prévisible dans Visual Studio 10 et c’est la version UML 2.1.2 qui sera présente dans celui-ci. Six diagrammes seront disponibles dans Visual Studio 10 : • Diagramme de cas d’utilisation • Diagramme de classe • Diagramme d’activité • Diagramme de séquence • Diagramme de composant ... et très bientôt • Diagramme d’état


Une conférence effectuée lors de ces Microsoft TechDays 2009 nous a montré la simplicité de création de ces graphes. En quelques clicks, nous pouvons les obtenir facilement. En partant d’un code existant, on peut aisément le modéliser et obtenir tous les graphes correspondant, ce qui peut se révéler très intéressant pour certain projet de modification d’application existante. En partant de zéro, la modélisation reste très facile puisque un simple « drag & drop » permet d’ajouter classes, diagrammes ou implémentations. Microsoft, au sein de Visual Studio 10, voulait mettre en valeur plusieurs choses : • L’Intégration des niveaux physiques et logiques (UML au niveau logique, DSL au niveau physique). • La découverte d’architecture (Visualisation de codes existants). • La validation d’architecture (traçabilité au niveau du code).

OSLO au niveau du SI Les liens entre les différentes applications que peut posséder une entreprise sont représentés par différentes couches : • Architecture métier • Architecture fonctionnelles

• Architecture applicative • Architecture technique/physique Entre ces différentes couches on observe 2 visions différentes : • Urbanisation (Architecture métier vers Architecture technique/ physique). • Intégration (Architecture technique/physique vers Architecture métier). Microsoft veut modéliser à différentes échelles les échanges logiques entre les applications; cela sur différents niveaux de description, avec des spécifications de plus en plus précise. Modéliser un SI revient de nos jours, plus ou moins, à modéliser une application composite. Microsoft déclare «OSLO: une réponse aux enjeux SI. » Voici les différents composants d’OSLO : • Outil de modélisation. (Quadrant) • Langage de modélisation. («M») • Repository (BDD avec Models). • Process Server. • Service Bus. « M » est le nouveau langage spécialement conçu pour la construction textuelle, domaine

des langues et des modèles de logiciels avec XAML. Quant à Quadrant, c’est l’outil d’OSLO permettant de modéliser. Il permet la création de vues concernant les données, de gérer la base de données et bien d’autres choses. La connection de Quadrant avec la plateforme Azure est bien entendu possible. Quadrant contient de nombreux pattern métier.

Les Liens utiles : • http://msdn.microsoft.com/enus/library/cc709420.aspx • http://msdn.microsoft.com/frfr/msdn.pdc2008.outils.aspx • http://msdn.microsoft.com/enus/oslo/default.aspx • http://www.microsoft.com/ presspass/press/2007/jun07/0604TechED07PR.mspx • http://channel9.msdn.com/ pdc2008/TL23/ • http://martinfowler.com/bliki/ Oslo.html • http://tech.slashdot.org/article. pl?sid=08/10/11/2245227&from =rss • http://blogs.zdnet.com/ microsoft/?p=1430

Aymeric VROOMHOUT

5


Microsoft

CLOUD COMPUTING

La plateforme Windows Azure de Microsoft Windows Azure est la réponse de Microsoft au phénomène de Cloud Computing. Derrière ce nom ne se trouve pas un système d’exploitation en temps que tel, mais une offre d’hébergement d’applications « dans les nuages ». Ces applications seront entièrement hébergées sur Internet et l’utilisateur pourra y accéder directement. Windows Azure est un service que l’on achète, dans lequel il est possible de gérer des ressources et des services. Ce mécanisme est totalement virtualisé. En effet, la plateforme s’adapte aux besoins de l’application en terme de performances (mémoire, processeur, bande passante) et va permettre à tous les utilisateurs de profiter pleinement de leur application, qu’ils soient 10 ou 1 Million. On retrouvera par exemple quelques cas concrets : • Un pic de montée en charge ponctuel le vendredi après midi? La plateforme s’adapte et l’envi6

Les cahiers de l’EPSI n°24

ronnement est dupliqué autant de fois que nécessaire pour suivre l’augmentation d’utilisateurs et conserver de bonnes performances. • Ouverture du public américain pour une application Web hébergée en Europe ? Les environnements sont dupliqués dans les DataCenter américains pour réduire les temps d’accès aux serveurs. La plateforme de services Azure permet à Microsoft de se positionner dans un domaine en plein essor et de renforcer son approche Software + Services. Ainsi hébergées sur la toile, l’utilisateur final pourra accéder à ses applications de n’importe où, et avec ses outils favoris. En complément de l’offre d’hébergement, qui est la base de Windows Azure, celui-ci propose trois briques principales de composants (comparables aux API Windows) :

• .NET Services : Bus applicatif permettant d’interconnecter des applications dans et hors du « cloud ». • SQL Server Data Services : une version « dans les nuages » de SQL Server, gérant la haute disponibilité et également capable de s’adapter à l’usage. A noter que Windows Azure dispose également d’un mini service de stockage des données appelé Azure Storage, capable de stocker des tables, queues et blobs. • Live Services : Une API qui permet de manipuler / interconnecter l’intégralité des services Windows Live : gestion des contacts, création d’emails et gestion des domaines, manipulation de mesh, authentification avec live ID.


contenant tous les outils de développement nécessaires pour débuter avec Azure (http:// msdn.microsoft.com/en-us/ vstudio/cc972640.aspx) . Afin de développer vos premières applications « cloud », il faudra au préalable installer plusieurs choses. Dans un premier temps, le SDK (ou Software Development Kit) contenant les API, outils et documentations permattant de développer vos applications. Le kit de développement installé, vous pourrez coder vos applications via Visual Studio et ainsi rester dans un environnement connu. Néanmoins, il faudra installer les Azure Tools pour Visual Studio afin de pouvoir bénéficier de tous les outils.

Pourquoi Windows

utiliser Azure ?

Avec Windows Azure, les équipes de Microsoft ouvrent aux développeurs les portes de leurs DataCenters. Fort d’une expérience dans le domaine de l’hébergement et la haute disponibilité (portail MSN, Windows Live, Live Meetings…), il sera bientôt possible d’utiliser les compétences de Microsoft et d’alléger et d’optimiser les coûts de gestion des hébergements. Les temps de déploiement et la maintenance (Hardware + Software) des applications sont également fortement réduits, étant donné que la plateforme est entièrement automatisée : il n’y a pas d’intervention physique. Les équipes de développement n’ont donc plus à se soucier du déploiement et peuvent se concentrer sur le point ou ils créent le plus de valeur : le dé-

veloppement ! Concernant le développement, Microsoft a pensé à tout. En effet, outre la plateforme .Net qui permet d’y héberger ses projets de la même technologie tel que l’ASP, il est également possible d’utiliser d’autres langages. Ainsi, les développeurs PHP, Python et même Ruby y trouveront leur compte et pourront utiliser la plateforme.

Quels sont les outils mis à disposition ? Pour débuter, le site dédié à Windows Azure regorge d’informations utiles et de liens à consulter, de webcasts pour en apprendre plus sur la technologie ( http:// www.microsoft.com/azure/default.mspx ). La deuxieme ressource la plus importante à garder dans un coin est celle de MSDN,

Vous trouverez également sur Internet les Azure Services Kit contenant un ensemble de présentations, exemples et tutoriaux de toutes les possibilités qu’offre cette nouvelle plateforme.

Cette technologie at-elle de l’avenir ? Certains voient le cloud computing comme un effet de mode, d’autres comme une révolution technologique sans précédent, les points de vues diffèrent. En effet, on peut se demander quels types de sociétés seraient interessées par la mise « dans le nuage » de leurs applications, et si cela leur serait bénéfique ou non. On imagine mal les applications métiers en place actuellement être réadaptées pour le cloud computing. De plus, il reste actuellement difficile de porter intégralement et sans difficultés une application existante pour le « nuage ». Néanmoins, cela reste possible mais peut prendre un certain 7


Microsoft

temps suivant la façon dont a été conçue l’application au préalable et risque d’obliger une refonte de celle-ci. L’autre question que l’on peut se poser est celle de la confidentialité des données. Car héberger une application métier comportant toutes les données importantes pour la société pourrait inquiéter les directeurs de services informatiques et les repousser dans le choix de la mise en place de ce type de système. Même si les sociétés travaillent sur cette technologie à temps plein, le fait d’avoir son application «volatile» sur la toile pourra dissuader les plus sceptiques et attachés à la confidentialité de leurs données critiques. Pourtant, le cloud computing peut être considéré comme une évolution non négligeable de la conception de l’informatique actuelle. Considéré par Microsoft comme une nouvelle étape de l’évolution de l’informatique

8

Les cahiers de l’EPSI n°24

après la création d’Internet, il représente une nouvelle forme de business pour la firme de Redmond mais également un marché sur lequel il se positionne dès sa création, contrairement à d’autres technologies pour lesquels Microsoft avait tardé à s’implanter. L’emergence du cloud computing pourrait permettre aux sociétés décidant de passer le cap, d’offrir la possibilité aux utilisateurs, où qu’ils soient sur le globe, d’accéder à l’application. On pense par exemple à une société ayant plusieurs filliales dans le monde et qui serait accessible par tous les employés où qu’ils se trouvent. Enfin, l’ouverture de la technologie avec des langages tels que PHP ou Python va permettre au cloud computing d’évoluer et de proposer de plus en plus de possibilités aux utilisateurs et aux développeurs. Le cloud computing possède donc des adeptes et des détracteurs, mais la technologie tend à

évoluer et à être de plus en plus utilisée par les surfeurs, mais son utilisation pour des applications orientées métier restent encore difficile à mettre en œuvre en entreprise.

Dorian LAMANDE Wolfgang LEGROS


9


DOSSIER : Green IT

Dossier GreenIT Mettez-vous au vert ! 10

Les cahiers de l’EPSI n°24


Depuis un bon moment déjà, l’écologie est «le» sujet de société par excellence... Si bien qu’il vient même s’introduire dans le monde de l’informatique! Comment, pourquoi, jusqu’où ? Découvrez les tenants et aboutissants de la Green IT !

La Green IT comme nouveau

modèle de développement du SI 2009 devait être l’an 0 de la Green IT, le début d’une nouvelle façon de faire évoluer le parc informatique. Cependant la crise économique et les restrictions budgétaires qui en découlent, ont obligé les décideurs informatiques à retarder ou ralentir le passage à l’acte écolo. Le mouvement n’est pas pour autant mort. Contrairement à ce que certains pensent, la Green IT ne consiste pas en une conglomération de militants écologiques, d’une petite poignée d’irréductibles écolos radicalistes. Cela ressemble fortement à l’Open Source lorsque l’on y regarde de plus près. Le but initial vient d’idéalistes cherchant à bâtir un monde plus juste. Et dans les deux cas, l’idée se transforme peu à peu en réalité économique et éthique. Les entreprises sont maintenant conscientes que la Green IT, encore un fois au même titre que l’Open Source, représente la maîtrise de son système d’information. Les entreprises y voient deux buts. Le premier est bien sûr économique. Il est important de parvenir à réduire les consommations énergétiques d’un parc informatique et de réduire par la

même occasion ses factures. Les éco taxes deviennent elles aussi une réalité. Afin d’éviter le besoin d’un changement trop brutal dans un avenir proche, il est nécessaire de démarrer dès aujourd’hui la métamorphose de son parc. Le deuxième intérêt est éthique. Une entreprise se doit, pour se forger une personnalité, de se fixer un certain nombre de valeurs. Le fait est que l’écologie est en vogue en ce moment auprès des communautés et du grand public. La Green IT est donc une opportunité d’offrir une réputation écolo-responsable flatteuse. Pour parvenir à réduire les coûts énergétiques, le chemin est long. Il commence bien sûr par une amélioration du matériel en modernisant le parc. Côté serveur, la virtualisation est à la mode et cela se justifie facilement. La puissance de calcul d’un processeur est généralement utilisée sur un serveur traditionnel à hauteur de 10 ou 20%. La virtualisation offre la possibilité de mieux utiliser les ressources des serveurs et donc de consommer moins. De plus, la virtualisation, qui elle aussi a le vent en poupe depuis maintenant plusieurs années, offre une plus grandes flexibilité et une plus grande sécurité. Côté poste client, les alternatives

sont diverses. Bien sûr cela passe par une modernisation du matériel mais la gestion énergétique incombe aussi au système d’exploitation. C’est en effet ce dernier qui se chargera de la gestion énergétique en modulant la vitesse du processeur ou en gérant la mise en veille. Autre tendance du moment : le client léger. Une étude menée par Wyse démontre que leurs clients légers permettent de réduire les consommations énergétiques jusqu’à 90% par rapport aux PC traditionnel. Ces petits postes disposent d’un autre avantage : leur durée de vie est supérieure à celle d’un PC. Ne disposant pas de pièce mécanique (comme c’est le cas sur les disques dur actuels) les clients légers sont moins soumis aux casses matérielles et évite le renouvellement trop fréquent de composants dont le recyclage reste un problème. Le recyclage est aussi une priorité pour l’adoption d’une attitude écologique. Première cible : le gaspillage de papier. Les consommations de papier servant à l’impression sont astronomiques. Il est vital d’inculquer aux utilisateurs des nouvelles méthodes de travail plus responsables. Le traitement du matériel vétuste et lui aussi à envisager. Il 11


DOSSIER : Green IT

est nécessaire de considérer les temps de vie et de travailler à leur prolongation. Enfin la consommation excessive de ressources par les logiciels est un problème qui, lui, n’a pas de solution immédiate. On constate facilement que les logiciels sont de plus en plus gourmands. Faute aux développeurs qui ne doivent plus regarder à la consommation de leurs programmes et n’optimisent pas leur code. Un programme écrit en Java ou en C# est bien plus consommateur qu’un autre écrit en C++. Il n’est néanmoins pas envisageable de revenir en arrière, ces langages représentant tout de même des outils précieux permettant de raccourcir énormément les temps de développement et de gagner en maintenabilité. La Green IT est en marche, c’est indéniable. Le modèle écologique se transforme en modèle économique. Les DSI doivent s’atteler dès maintenant à la tâche afin d’éviter d’accuser un retard trop important lorsque celle-ci deviendra incontournable. Pour ce faire il est nécessaire dans 12

Les cahiers de l’EPSI n°24

un premier temps de définir les consommations actuelles d’énergie afin de cibler et planifier dans le temps les évolutions La virtualisation est-elle une à apporter. Il faut ensuite vibonne piste ? ser à rallonger la durée de vie La virtualisation existe depuis un du matériel et à bon moment déjà, mais elle est mieux gérer le encore très peu utilisée par les enrecyclage. Enfin treprises, ceci par souci de comil faut responplexité ou de maintenance dans la sabiliser les utiplupart des cas. lisateurs face à Pourtant, les chiffres sont là : leurs méthodes de travail.

Jérémy HIGGINS


Microsoft System Center, une solution certifiée Green

Les solutions System Center intégrées donnent aux administrateurs la possibilité d’optimiser les ressources, d’améliorer la visibilité des parcs informatiques et des problèmes éventuels, de respecter les niveaux de service définis et de gagner en efficacité, tout en réduisant les coûts mais également la pollution. Les différents produits de la gamme : • Configuration Manager La Maintenance peut représenter jusqu’à 70% du coût d’un système, Configuration Manager simplifie le déploiement d’application, l’automatisation des tâches, la gestion des configurations et du changement, la gestion de la mise en conformité légale et l’administration des politiques de sécurité afin d’améliorer l’agilité du système.

• Data Protection Manager Un agent installé sur chaque machine permet de gagner du temps dans la sauvegarde et dans la restauration, en permettant de sauvegarder des données à structure logique complexe de type base de données sans les démonter. La synchronisation est à intervalles réguliers et se fait uniquement par une analyse des changements effectués. • Opération Manager Un outil permettant de facilement surveiller les services informatiques mais aussi de prévoir

la nécessité d’une nouvelle machine virtuelle par exemple.

IT

• System Center Essentials Une solution d’administration unifiée qui permet de gérer de façon proactive leurs environnements techniques avec une meilleure efficacité. • Virtual Machine Manager Solution complète pour l’administration centralisée d’une infrastructure de serveurs virtuels: créer, configurer et déployer de nouvelles machines virtuelles et gérer de manière centralisée les infrastructures. Une segmentation des serveurs, permettant d’allouer ou désallouer des machines virtuelles en fonction du besoin. Mais aussi une proposition de virtualisation en fonction de l’existant. • System Management Server Administration de parc informatique, inventaire et gestion des applications et de mises à jour de sécurité.

Yann GARIT

13


Décisionnel

L’alternative Open Source de l’extraction de données

14

Les cahiers de l’EPSI n°24


L’extraction de données est la première étape d’un processus décisionnel, qu’on pourrait traduire en anglais par Business Intelligence.

Business Intelligence représente l’exploitation des données d’une entreprise dans le but de faciliter la prise de décision de décideurs et ainsi anticiper sur leurs actions futures au sein de l’entreprise. L’objectif de cette étape est de centraliser toutes les données d’un système d’information, qui peuvent être issues de milieux hétérogènes, dans un entrepôt de données (ou datawarehouse).

d’intégration. A vrai dire, aucune des deux méthodes présentées cidessous n’est à préconiser. Son choix doit se faire en fonction des fonctionnalités recherchées et de la difficulté à appréhender. 1. Création de code spécifique 2. Utilisation d’un outil ETL (Extract – Transform – Load)

corrigé, voire totalement redéveloppé, sans parler d’éventuelles contraintes de turn over parmi les développeurs. L’utilisation d’un outil ETL est intéressante là où la solution d’un développement spécifique trouve ses points faibles. Grossièrement, un ETL peut être défini comme un outil informatique permettant d’extraire des

La suite du processus prévoit le traitement de ces données afin de calculer les indicateurs souhaités en fonction d’une problématique posée au préalable. Le processus décisionnel se termine par la publication des résultats obtenus (reporting) de façon à mettre en avant les indicateurs à valeur ajoutée afin d’orienter le décideur. Bien qu’indispensable dans la compréhension globale d’un processus décisionnel, les éléments évoqués dans le second paragraphe ne seront pas présentés dans cet article. Nous nous focaliserons sur le choix d’une méthode d’extraction des données et sur l’émergence et l’intérêt d’un outil Open Source.

Le choix d’une méthode d’extraction des données Une des difficultés majeures dans la phase d’extraction de données d’un processus décisionnel est le choix d’une solution

Principe d’un ETL La solution d’un développement spécifique est intéressante à un instant donné. En effet, elle permet de rester très proche des spécificités métiers du cas présent, tout en s’affranchissant des contraintes de l’utilisation d’un outil ETL (coût, intégration, prise en main, formation). A contrario, la solution trouve son point faible dans l’évolutivité du système d’information d’une entreprise. A chaque modification métier, le code doit être adapté,

données de sources hétérogènes (par exemple une base de données PostgreSQL, des fichiers CSV et une base de données Oracle) pour les centraliser dans une destination homogène (une base de données MySQL) après avoir effectué des traitements (tri, agrégation, concaténation, filtre, fusion, etc.).

15


Décisionnel

L’alternative Source

Open

Le présent article n’a pas vocation à comparer les différents outils ETL, ni en termes de performance, ni en termes de fonctionnalités, mais plutôt à montrer l’émergence des outils Open Source sur un marché arrivant tout juste à maturité. Il y a encore peu de temps, le décideur pouvait choisir d’utiliser un outil ETL propriétaire pour mettre en œuvre des projets d’intégration complexes. Bien entendu, la contrainte de ce type d’outil est le coût (licence et/ou formation) qui néanmoins justifie une palette complète de fonctionnalités et surtout les performances. C’est en effet sur ce dernier point que va être caractérisé un outil ETL. Depuis peu, les outils Open Source ont fait leur apparition sur ce marché. Force est de constater que dans le contexte économique actuel, cette émergence est une très bonne nouvelle pour les décideurs : utiliser un outil gratuit pour mieux décider. Gratuit ? Rappelons tout de même qu’Open Source ne signifie pas forcément gratuit. Dans notre cas, nous mettrons l’Open Source en avant grâce à l’outil Talend Open Studio, qui est Open Source et gratuit (L’étude aurait bien pu être faite autour de Pentaho Data Integrator). Le décor étant planté, la question à se poser est toujours la même : que choisir ? Un outil propriétaire avec un coût d’entrée mais un très bon retour d’expérience... ou un outil Open Source et gratuit mais avec une moins bonne stabilité du produit. Tout l’intérêt d’un produit Open 16

Les cahiers de l’EPSI n°24

Source est là. En amont, et au début du développement, un outil Open Source sera bogué, incomplet, etc. La mise à disposition du produit à des utilisateurs va permettre la création d’une communauté qui, ayant accès au code, va pouvoir signaler les bogues, trouver des solutions ou des requêtes qui vont être transmises aux développeurs afin d’améliorer l’outil. Au fur et à mesure, et quelques versions intermédiaires plus tard, le produit devient de plus en plus complet et de plus en pus robuste (Voir les versions 1.0.0 et 3.1.1 de Talend Open Studio par exemple). Ajoutons à cela l’intérêt probablement le plus important, et que l’on trouve sur Talend Open Studio: l’intégration de ses propres composants. En effet, le fait d’avoir accès au code permet aux utilisateurs de modifier le produit afin qu’il colle le plus possible à leur environnement (par exemple un connecteur à une application interne, comme un ERP). Comme le montre l’image ci-dessus, Talend Open Studio intègre nativement des connecteurs aux applications métiers et il est possible d’en développer soi-même ou d’en ajouter à partir de l’ecosysteme. L’ecosysteme est un dépôt de composants Talend que les utilisateurs développent et partagent. Ceuxci ne sont pas intégrés nativement dans le sens où peu de personne sont intéressées, mais ils restent disponibles pour quiconque voudrait s’en servir (encore un aspect intéressant d’un projet Open

Source). En conclusion, il s’agit de rappeler les points forts et faibles d’un outil Open Source comparé à un outil propriétaire sur le marché des ETL. En amont, les points forts et certains d’un outil propriétaire sont le retour d’expérience et les performances. En effet, les performances sont extrêmement recherchées dans ce domaine. Les points faibles d’un outil Open Source, au début du développement, sont les points forts de l’outil propriétaire. En effet, l’accent est plus porté sur les fonctionnalités que sur les performances. L’ouverture du code à une communauté, point fort de l’Open S o u r c e et point faible des outils propriétaires, laisse entrevoir un rapide rattrapage du retard en termes de performance. Que dire des fonctionnalités à ce niveau là … En définitive, dans le contexte économique actuel, qui veut que les décisions soient bien prises sans trop dépenser, l’Open Source est une alternative de premier choix aux outils propriétaires.

Rémy DUBOIS


BTP et INDUSTRIE TELECOM et INFORMATIQUE

BP 30051

17


Technologies

Novell facilite la gestion des workloads dans les Data Centers Novell, grâce à sa gamme de produits PlateSpin Management, possède la première solution capable de gérer, de manière unifiée, les workloads physiques et virtuels. Les nouveaux produits PlateSpin Recon TM, Migrate TM, Protect TM, et Orchestrate TM qui sont complémentaires, permettent respectivement de profiler, de migrer, de protéger et de gérer des workloads physiques et virtuels.

peut être lent, complexe et coûteux. Novell tente à travers sa gamme PlateSpin de répondre à cette problématique d’utilisation, de coût et de flexibilité des serveurs. Sans plus attendre, détaillons l’ensemble de la gamme PlateSpin.

Dans la plupart des cas, les entreprises surestiment la productivité de leur Data Center. En y regardant de plus près, on peut trouver PlateSpin Migrate une multitude de fonctionnalités inexploi PlateSpin Migrate tées à est un outil qui vous Workload Managem e t t r e permet d’avoir une en œuvre ment : ensemble des approche unifiée a v a n t techniques destinées pour résoudre les d’ajouà optimiser la charge problèmes de porter toute tabilité et de migrade la machine et du tion critique. nouvelle machine réseau à un Data Cette solution Center. De vous permet entre plus, le déploiement d’une nouautres de pratiquer la migravelle application sur un serveur tion anywhere-to-anywhere (de 18

Les cahiers de l’EPSI n°24

n’importe où à n’importe où) des charges de travail, dans le réseau, entre les serveurs physiques, les hôtes virtuels. PlateSpin Migrate permet le transfert des charges de travail d’un hôte vers un autre quel que soient les configurations matérielles, systèmes d’exploitation ou la technologie de création d’image utilisée. Cette solution déplace les charges de travail sans avoir à éteindre les serveurs de production, elle vérifie en temps réel que les charges de travail n’auront aucun souci de fonctionnement.


opérations complexes que sont la consolidation des serveurs, les reprises après sinistre, la planification de la capacité et les initiatives de Data Center « vert ». Le schéma de la page suivante montre bien l’apport de Recon dans la gestion de votre Data Center. Voyons donc de plus près la gamme des fonctionnalités proposées par PlateSpin Recon :

Platespin Migrate : principe de fonctionnement

PlateSpin Protect PlateSpin Protect protège les charges de travail des serveurs physiques et permet également la récupération de données perdues. Dans un seul environnement de reprise virtualisé, la solution Protect permet de consolider différentes charges de travail. Elle permet aussi de tester rapidement les plans de reprise après un sinistre sans arrêter le processus de sauvegarde. Vous pouvez aussi répliquer une charge de travail sur le serveur de reprise virtuelle rapidement.

PlateSpin Forge PlateSpin Forge est une solution qui permet de restaurer rapidement des charges de travail des serveurs lorsque ceux-ci tombent en panne. Cette restauration se fait sur n’importe quel hôte physique ou virtuel, indépendamment du matériel, de la marque ou du constructeur. De plus, vous pouvez adapter ce

modèle en fonction de la taille de votre Data Center (10 ou 25 charges de travail). Cette solution permet de récupérer directement les charges de travail en attente via un message par courriel, périphérique mobile synchronisé ou par l’interface web d’utilisateur. Lors de la reprise d’une charge de travail, cette dernière peut s’effectuer selon le dernier état de fonctionnement correct connu. La technologie de synchronisation des serveurs offerte par PlateSpin Forge permet le transfert des charges de travail sur un réseau WAN dans le cas où l’on gère plusieurs sites distants.

PlateSpin Recon PlateSpin Recon sert à optimiser l’analyse et la création de plans soignés pour le succès de vos initiatives de Data Center, il dispose pour cela d’une gamme complète de fonctions de profilage, d’analyse et de planification des charges de travail qui éliminent le recours aux conjectures lors des

• Collecte des données à distance: Comme son nom l’indique, cette fonction va permettre de rassembler des données d’inventaires à partir de vos serveurs mais aussi des informations sur leurs performances. • Puissante modélisation des données : Grâce à cet outil, vous pourrez sélectionner la meilleure méthode de consolidation pour vos serveurs, de plus l’intégration étroite de Recon à VMWare Virtual center permet d’améliorer la visibilité de l’infrastructure virtuelle et le mode de gestion du Data Center. • Création et envoi de rapports personnalisés • Capture et exportation flexibles des données : PlateSpin Recon permet d’exporter des données vers un grand nombre de formats standard (HTML, PDF, Word, CSV, Excel, etc.) afin de créer les rapports dont vous avez besoin. • Évolutivité à l’échelle de l’entreprise : Avec PlateSpin Recon, vous pouvez rassembler les données issues de divers outils de collecte de sorte à centraliser le stockage des données, l’analyse et la pla19


Technologies nification.

plan de consolidation optimal.

• Rapports de croissance des machines virtuelles

• Analyse de la consommation d’électricité et des besoins en refroidissement

• Prise en charge de Data Centers multiples

• Analyse temporelle

• Création flexible de rapports d’imputation des frais

• Prévisions d’utilisation et des charges de travail

• Planification

PlateSpin Orchestrate

• Analyse des charges de travail

Ce produit sert à automatiser la gestion des machines virtuelles, c’est une évolution de ZenWorks Orchestrator. L’objectif d’Orchestrate est d’harmoniser le fonctionnement et d’optimiser la valeur des technologies de pointe telles que la virtualisation et le calcul haute per-

• Modélisation de scénarios : Créez et comparez des scénarios personnalisés avec des caractéristiques définies par l’utilisateur en ce qui concerne les serveurs cibles. Utilisez les modèles qui vous sont proposés pour créer un

formance. Orchestrate interagit avec les serveurs de gestion des ressources de configuration et de stockage pour gérer la relation entre l’ordinateur physique et les ressources de stockage.

PlateSpin Recon : Apport dans la gestion des Datacenters.

Steve LACROIX Thomas LEROY

20

Les cahiers de l’EPSI n°24


21


Technologies

A la recherche de mobilité et de sécurité ?

Adoptez Globull !

22

Les cahiers de l’EPSI n°24


Le Français Bull , spécialiste des mainframes et des clusters de calcul à hautes performances, pionnier dans le domaine de la sécurité informatique, sort fièrement son nouveau produit : le Globull. Doté des meilleures technologies de haute sécurité pour la mobilité, ce disque dur externe, d’un poids de 120 grammes et d’une capacité de 60Go, aux allures des dernières générations de Ipod, est en fait un vrai coffre-fort crypté pour les données. Et pour cause: un processeur de sécurité entièrement développé par Bull, assure à la fois l’authentification de l’utilisateur et le chiffrement à la volée des données qui entrent sur le disque à l’aide de l’algorithme AES à clé de 256 bits. Il permet alors de renforcer la sécurité d’applications tel que le réseau privé virtuel, la voix sur IP chiffrée, la signature électronique, etc. En plus d’être un média de stockage chiffré bâti autour d’un processeur cryptographique haute performance, Bull a intégré également d’autres innovations au Globull, telle une authentification par écran tactile ou encore un environnement logiciel de virtualisation. Pour ce qui est de l’authentification par écran tactile, il suffit simplement d’entrer son mot de passe directement sur le Globull et cela sans crainte car il garantit un niveau de protection issu des technologies de défenses(Crypto Ignition Key). Pour ce qui est de l’environnement logiciel de virtualisation, le globull virtual desk permet l’installation standardisée de tout système Windows ou Linux sur le disque. Cela permet alors de transporter et de démarrer son propre environnement et ses ap-

plications sur toute machine hôte : PC, portable ou ultraportable, et cela en toute sécurité, sans laisser aucune trace. “ L’utilisation du Globull ne nécessite aucune installation de logiciel sur le PC hôte. Il en utilise les ressources, à savoir la mémoire, l’écran, le clavier, les périphériques et le processeur mais pas le disque dur. Toute la gestion de la sécurité est effectuée sur le processeur de sécurité interne du Globull. A aucun moment les clés de sécurité ne vont se balader dans la mémoire vive du PC hôte, elles sont donc inaccessibles aux logiciels espions ”, explique Alain Filée, directeur des produits de sécurité chez Bull. Reste maintenant à savoir pour quels types d’utilisateurs ce nouveau produit est destiné.

Pour qui ? On l’aura compris, le globull est destiné à des professionnels qui doivent se déplacer régulièrement avec des données sensibles : les cadres, les diplomates, les financiers, les juristes, etc. Il permet également de travailler au bureau, en clientèle, chez les partenaires ou encore à domicile, en ayant toujours une sécurité accrue, évitant ainsi l’espionnage, le vol des données, l’interception des communications confidentielles et les intrusions. Bull marque une belle avancée avec globull en termes de mobilité et de sécurité. Sa robustesse au niveau cryptographique lui a permis d’être adopté pas des instances gouvernementales. Comptez tout de même 605€ HT l’unité pour le globull 60Go, avec l’option de virtualisation et trois ans de garantie et maintenance sur le produit.

Caractéristiques techniques Capacité 60 Go 120 grammes Solution globull Virtual Desk en Option* Sécurité Processeur de sécurité intégré Performance 100 Mb/s en AES 256 Disque 100% chiffré en AES 256 Disque 100% protégé en intégrité (Hmac-SHA1 avec clés de 256 bits) Support des standards PKCS#11 et MS-CAPI Technologie CIK (Crypto Ignition Key) de niveau défense Algorithmes supportés : AES 256 mode CBC ou ECB (génération, chiffrement), RSA 2048 (génération, signature, chiffrement), SHA-1 (HMAC) Générateur d’aléas matériel conforme FIPS 186-2

Jonathan SAJ

23


Culture

Le Libre L’open source, souvent considéré comme manquant de maturité, est maintenant connu de tout le monde dans le milieu des technologies de l’information. Cette progression s’explique par la meilleure adéquation des solutions libres avec la demande des entreprises et la volonté de limiter les coûts dans un contexte économique parfois difficile.

Le modèle En France, le Libre est facilement associé au «gratuit». «Si le produit est open source , alors il est totalement gratuit». Cette erreur provient de la traduction qui a été réalisée de l’anglais. En effet, beaucoup interprètent «Free Software» par «Logiciel Gratuit». C’est la polysémie du terme «free» se traduisant par «libre» ou «gratuit» qui est à l’origine de la confusion. Un logiciel est libre si le code source est disponible. Il peut donc être vendu à condition que les sources soient fournies. Le modèle du logiciel libre doit être étudié sous plusieurs angles: • économique: il repose, non pas sur les licences, mais sur les offres de services associées au produit (installation, personnalisation, support, formation...). 24

Les cahiers de l’EPSI n°24

Elles constituent l’élément essentiel dans le choix, par les professionnels, des solutions libres. • idéologique: le développement tourne autour d’une communauté d’utilisateurs et de développeurs. L’objectif n’étant pas de garder secret le code source, l’avantage concurrentiel se situant au niveau du service. • d’organisation: il existe deux types de projet. D’un côté, ceux gérés uniquement par une communauté d’utilisateurs et de développeurs et de l’autre les projets dirigés par une entreprise (éditeur par exemple), auxquels participent des contributeurs. Dans certains cas, la société gère elle-même le développement du cœur de métier et laisse la communauté créer des modules.

Les atouts Le principal avantage provient du modèle de développement : permettre à n’importe quel développeur d’apporter sa pierre à l’édifice donne un potentiel très important aux logiciels Open Source. Les utilisateurs ont, quant à eux, la possibilité de signaler les erreurs ou proposer des améliorations au sein de plateformes dédiées (Mantis pour les bugs, SVN pour le contrôle de révisions). Le potentiel est énorme ! Imaginez : des milliers de déve-

loppeurs contribuant à un même projet ! Cela permet d’atteindre une qualité bien meilleure. De plus, le code étant public, il est toujours possible de l’optimiser ou de corriger les quelques bugs résiduels.

Les limites L’organisation du projet doit être bien pensée. En effet, le nombre de contributeurs pouvant se révéler très élevé, il faut définir clairement les objectifs pour éviter que chacun crée une partie sans cohésion. Il faut pour cela, soit avoir un «leader» charismatique, tel que Linus Torvald pour Linux, ou une société qui définit la ligne directrice du projet, par exemple Canonical pour Ubuntu. Le projet étant dépendant d’une communauté, il faut que cette dernière soit suffisamment développée pour garantir une réactivité face aux problèmes ou aux évolutions des besoins des utilisateurs.

Les «success stories» de l’open source Mozilla Accusé de folie en 1998 lorsqu’il décida de fournir le code source de son Navigator, Netscape ve-


nait en fait de donner indirectement naissance à Mozilla qui allait en reprendre les grandes lignes mais sous licence libre. Connu aujourd’hui sous le nom de Mozilla Foundation, le lézard s’est désormais imposé en tant que premier concurrent à Internet Explorer grâce à son célèbre navigateur Firefox avec plus de 20% du marché. Apache Apache est un serveur HTTP qui est apparu en 1995 d’abord en tant que collection de correctifs au serveur NCSA HTTPd 1.3. Très vite indépendant de ce dernier, il est devenu rapidement le serveur HTTP le plus répandu sur Internet. Aujourd’hui produit par l’Apache Software Foundation, il représente plus de 73% des parts de marché.

mais imposé comme une réelle alternative aux concurrents propriétaires en offrant autant, voire plus, de services téléphoniques, notamment en matière de VOIP mais présentant surtout l’avantage d’être Open Source. Talend Fort d’une expérience de trois ans en recherche et développement, Talend s’est rapidement imposé avec sa solution Talend Open Studio pour devenir le premier fournisseur de solutions d’intégration de données Open Source. Les points forts de cet outil étant entre autres ses performances, sa robustesse et surtout l’intuitivité de son environnement de travail.

Fabrice HENRY Alexandre WESTFAHL Mickael WINNEPENNINCKX

Ubuntu Pouvant être traduit par une expression africaine désignant « Je suis ce que je suis grâce à ce que nous sommes tous », la célèbre distribution est née en avril 2004 d’un constat de Mark Shuttleworth (ancien développeur Debian et créateur de Ubuntu). Il dénonce en effet la part de marché écrasante de Microsoft et l’omniprésence de son système dans les ordinateurs vendus. Celui-ci est en train de gagner son pari, puisque Ubuntu représente 48% des parts de marché des systèmes libres et surtout les mentalités sont en train de changer, notamment avec l’arrivée des Netbook qui se vendent la plupart du temps avec un système Ubuntu d’installé. Asterisk Créé en 1999 par un étudiant cherchant un commutateur téléphonique à moindre coût, le PABX Open Source s’est désor25


À LA PORTE DE LA MÉTROPOLE LILLOISE :

L’IMPRIMERIE LÉONCE DEPREZ Spécialiste de la fabrication de catalogues, brochures, guides et prospectus avec routage intégré.

Tél : +33(0) 3 21 52 96 20 Fax : +33(0) 3 21 52 96 21 Siège : ZI ‘Le Moulin’, 62 620 Ruitz Site de Wancourt : Parc d’activité Artois Pôle 2, 62 000 Arras

Site : www.leonce-deprez.fr - email : contact.ild@leonce-deprez.fr Certification en cours


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.