26
http://www.epsi.fr/ N°24 - 2e semestre 2009 http://www.epsi.fr/ La revue des élèves-ingénieurs à destination des entreprises

Les Cahiers de l'EPSI - N°24

Embed Size (px)

DESCRIPTION

Au sommaire de ce numéro : GreenIT, mettez-vous au Vert ; le Cloud Computing avec Windows Azure ; la gestion des Workloads avec Novell ; Processus décisionnel : extraction de données.

Citation preview

Page 1: Les Cahiers de l'EPSI - N°24

http

://w

ww

.eps

i.fr/

N°24 - 2e semestre 2009ht

tp://

ww

w.e

psi.f

r/

La revue des élèves-ingénieurs à destination des entreprises

Page 2: Les Cahiers de l'EPSI - N°24

Les cahiers de l’EPSI n°24

Sommaire

Microsoft OSLO, une réponse aux enjeux SI..............................4 Cloud Computing, MS Windows Azure......................................6

La Green IT comme nouveau modèle du SI..............................10 MSSystemCenter,certifiéGreenIT.........................................13

Alernative OpenSource de l’extraction de données..................14

Novell, gestion des workloads dans les datacenters..................18 Mobilité & sécurité : adoptez Globull.......................................22

Le Libre......................................................................................24

Microsoft

Dossier : GreenIT

Décisionnel

Technologies

Culture

Page 3: Les Cahiers de l'EPSI - N°24

Les Cahiers de l’EPSI n°24

Editorial

Promouvoir l’esprit d’entreprise, appréhender le monde du travail tel qu’il va et tel qu’il sera : voi-là nos ambitions, nos passions et notre raison d’être.

Bonne lecture et rendez-vous au 1er semestre 2010 pour une nouvelle édition des « Cahiers », papier et numérique.

L’occasion était toute trou-vée, l’opportunité s’offrait à nous: sortir pour la première fois un nu-méro numérique des « Cahiers de l’EPSI » alors que le dossier prin-cipal de cette édition 23 faisaitjustement la part belle aux techno-logies vertes. La forme se devait de suivre le fond. Nos élèves-in-génieurs se sont donc lancés cette fois dans une aventure de presse électronique, dans une conception numérique qu’on dit plus «propre» et «écologique» ; une autre ma-nière aussi de faire, de concevoir et d’imaginer la communication. Pour le reste, rien de changé : la volonté de présenter des articles qui ont l’ambition d’être au fait des dernières innovations et recherches en sciences de l’informatique.

Nos valeurs générales res-tent, elles aussi, inchangées ; celles quenousrevendiquonsfièrementàl’EPSI et qui forment notre iden-titéspécifique.Pasuneécoled’in-génieurs comme les autres : en synergie constante avec les entre-prises et leurs besoins évolutifs, en situation et dynamique profes-sionnelles permanentes, en mobili-sation quotidienne des professeurs et étudiants sur des projets en prise directe avec le « monde réel » (le dernier numéro des « Cahiers» que vous avez sous les yeux en est en-core une preuve concrète).

C’est dans cet esprit que nous invi-tons nos élèves-ingénieurs à oser, à innover et à expérimenter dans un cadre pédagogique lui aussi très novateur et dans des associations tournées vers les applications du futur : entreprenariat, junior-ser-vices, laboratoires de recherche, engagements citoyens, missions humanitaires, pôles de communi-cation…

Les cahiers de l’EPSI n°24

EPSI ARRAS:EspaceTechnopolis-23-25ruedudépôt-62000ARRASTél:03.21.71.33.34Fax:03.21.71.49.93Site Web : http://www.epsi.fr

Directeur de la publication : José MONIEZ

Conception:NicolasZURINI,Guillaume THOMAS

Commerciaux:NicolasBOUVIERJean-BaptisteDUJARDINYann GILLIOTJustin LAVOGEZSophie LEQUIEN

Rédacteurs:Lesélèves-ingénieurdefindecycle(BAC+5)

Président de l’association:Benoit VIENNE

Revue Semestrielle

José MONIEZ

Page 4: Les Cahiers de l'EPSI - N°24

4 Les cahiers de l’EPSI n°24

Microsoft

TechDays 2009 : MS OSLO « Une réponse aux enjeux SI» L’UML (Unified Mode-ling Languages) est encore de nos jours très utilisé et on le re-marque par les sondages à mains levées effectués dans la salle de conférence de ces Techdays 2009: la quasi-totalité de l’am-phithéâtre utilise UML et très peu le DSL de Mi-crosoft. UML est donc une des at-tentes du marché, Microsoft le sait et a donc décidé de s’y investir pour rendre l’UML moins am-bigu.

Depuis septembre 2008,

Steve Cook, à l’origine de l’OCL, représente désormais Microsoft au sein de l’OMG. Il est leader du RFI « Future of UML ». Ilprévoit plusieurs améliorations majeures:

• De la pré-cision pour réduire l’am-biguïté.• L’interopé-rabilité.• La prise encompte du .NET.

Microsoft a voulu nous montrer sa volonté de passer du logiciel au système d’information avec OSLO. Il veut un parc de logiciel

axé sur la modélisation. L’inté-gration d’UML était donc pré-visible dans Visual Studio 10 et c’est la version UML 2.1.2 qui sera présente dans celui-ci. Six diagrammes seront disponibles dans Visual Studio 10 :

•Diagrammedecasd’utilisation•Diagrammedeclasse•Diagrammed’activité•Diagrammedeséquence•Diagrammedecomposant... et très bientôt •Diagrammed’état

«UML est donc une des attentes du mar-ché, Microsoft le sait et a donc décidé de

s’y investir»

Page 5: Les Cahiers de l'EPSI - N°24

5

Une conférence effectuée lors de ces Microsoft TechDays 2009nousamontrélasimplicitéde création de ces graphes. En quelques clicks, nous pouvons les obtenir facilement. En par-tant d’un code existant, on peut aisément le modéliser et obtenir tous les graphes correspondant, ce qui peut se révéler très intéres-sant pour certain projet de modi-fication d’application existante.En partant de zéro, la modélisa-tion reste très facile puisque un simple « drag & drop » permet d’ajouter classes, diagrammes ou implémentations.Microsoft, au sein de Visual Stu-dio 10, voulait mettre en valeur plusieurs choses :

•L’Intégrationdesniveauxphy-siques et logiques (UML au ni-veau logique, DSL au niveau physique).• La découverte d’architecture(Visualisation de codes exis-tants).• La validation d’architecture(traçabilité au niveau du code).

OSLO au niveau du SI

Les liens entre les diffé-rentes applications que peut pos-séder une entreprise sont repré-sentés par différentes couches :•Architecturemétier•Architecturefonctionnelles

•Architectureapplicative• Architecture technique/phy-siqueEntre ces différentes couches on observe 2 visions différentes :•Urbanisation(Architecturemé-tier vers Architecture technique/physique).• Intégration (Architecture tech-nique/physique vers Architecture métier).

Microsoft veut modé-liser à différentes échelles les échanges logiques entre les ap-plications; cela sur différents ni-veaux de description, avec des spécifications de plus en plusprécise.

Modéliser un SI revient de nos jours, plus ou moins, à mo-déliser une application compo-site. Microsoft déclare «OSLO: une réponse aux enjeux SI. »

Voici les différents composants d’OSLO :• Outil de modélisation. (Qua-drant)• Langage de modélisation.(«M»)• Repository (BDD avec Mo-dels).•ProcessServer.•ServiceBus.« M » est le nouveau langage spécialement conçu pour la construction textuelle, domaine

des langues et des modèles de lo-giciels avec XAML.

Quant à Quadrant, c’est l’ou-til d’OSLO permettant de mo-déliser. Il permet la création de vues concernant les données, de gérer la base de données et bien d’autres choses. La connection de Quadrant avec la plateforme Azure est bien entendu possible. Quadrant contient de nombreux pattern métier.

Les Liens utiles :

•http://msdn.microsoft.com/en-us/library/cc709420.aspx•http://msdn.microsoft.com/fr-fr/msdn.pdc2008.outils.aspx•http://msdn.microsoft.com/en-us/oslo/default.aspx•http://www.microsoft.com/presspass/press/2007/jun07/06-04TechED07PR.mspx•http://channel9.msdn.com/pdc2008/TL23/•http://martinfowler.com/bliki/Oslo.html•http://tech.slashdot.org/article.pl?sid=08/10/11/2245227&from=rss•http://blogs.zdnet.com/microsoft/?p=1430

AymericVROOMHOUT

Page 6: Les Cahiers de l'EPSI - N°24

6 Les cahiers de l’EPSI n°24

Microsoft

La plateforme Windows Azure de Microsoft

Windows Azure est la réponse de Microsoft au phéno-mène de Cloud Computing. Der-rière ce nom ne se trouve pas un système d’exploitation en temps que tel, mais une offre d’héber-gement d’applications « dans les nuages ». Ces applications se-ront entièrement hébergées sur Internet et l’utilisateur pourra y accéder directement. Windows Azure est un service que l’on achète, dans lequel il est pos-sible de gérer des ressources et des services. Ce mécanisme est totalement virtualisé. En effet, la plateforme s’adapte aux besoins de l’application en terme de per-formances (mémoire, processeur, bande passante) et va permettre à tous lesutilisateursdeprofiterpleinement de leur application, qu’ils soient 10 ou 1 Million. On retrouvera par exemple quelques cas concrets :

• Un pic de montée en chargeponctuel le vendredi après midi? La plateforme s’adapte et l’envi-

ronnement est dupliqué autant de fois que nécessaire pour suivre l’augmentation d’utilisateurs et conserver de bonnes perfor-mances.•Ouverturedupublicaméricainpour une application Web héber-gée en Europe ? Les environne-ments sont dupliqués dans les DataCenter américains pour ré-duire les temps d’accès aux ser-veurs.

La plateforme de services Azure permet à Microsoft de se positionner dans un domaine en plein essor et de renforcer son approche Software + Services.Ainsi hébergées sur la toile, l’uti-lisateurfinalpourraaccéderàsesapplications de n’importe où, et avec ses outils favoris. En complément de l’offre d’hé-bergement, qui est la base de Windows Azure, celui-ci propose trois briques principales de com-posants (comparables aux API Windows) :

• .NET Services : Bus applica-tif permettant d’interconnecter des applications dans et hors du « cloud ».•SQLServerDataServices:uneversion « dans les nuages » de SQL Server, gérant la haute dis-ponibilité et également capable de s’adapter à l’usage. A noter que Windows Azure dispose éga-lement d’un mini service de stoc-kage des données appelé Azure Storage, capable de stocker des tables, queues et blobs.•LiveServices:UneAPIquiper-met de manipuler / interconnec-ter l’intégralité des services Win-dows Live : gestion des contacts, création d’emails et gestion des domaines, manipulation de mesh, authentificationavecliveID.

CLOUD COMPUTING

Page 7: Les Cahiers de l'EPSI - N°24

7

Pourquoi utiliser Windows Azure ? Avec Windows Azure, les équipes de Microsoft ouvrent aux développeurs les portes de leurs DataCenters. Fort d’une expé-rience dans le domaine de l’hé-bergement et la haute disponibili-té (portail MSN, Windows Live, Live Meetings…), il sera bientôt possible d’utiliser les compé-tences de Microsoft et d’allé-ger et d’optimiser les coûts de gestion des hébergements. Les temps de déploiement et la main-tenance (Hardware + Software)des applications sont également fortement réduits, étant donné que la plateforme est entièrement automatisée : il n’y a pas d’inter-vention physique. Les équipes de développement n’ont donc plus à se soucier du déploiement et peu-vent se concentrer sur le point ou ils créent le plus de valeur : le dé-

veloppement !

Concernant le développe-ment, Microsoft a pensé à tout. En effet, outre la plateforme .Net qui permet d’y héberger ses pro-jets de la même technologie tel que l’ASP, il est également pos-sible d’utiliser d’autres langages. Ainsi, les développeurs PHP, Py-thonetmêmeRubyytrouverontleur compte et pourront utiliser la plateforme.

Quels sont les outils mis à disposition ?

Pour débuter, le site dédié à Win-dows Azure regorge d’informa-tions utiles et de liens à consulter, de webcasts pour en apprendre plus sur la technologie ( http://www.microsoft.com/azure/de-fault.mspx ). La deuxieme res-source la plus importante à garder dans un coin est celle de MSDN,

contenant tous les outils de dé-veloppement nécessaires pour débuter avec Azure (http://msdn.microsoft.com/en-us/vstudio/cc972640.aspx) .Afin de développer vos pre-mières applications « cloud », il faudra au préalable ins-taller plusieurs choses. Dans un premier temps, le SDK (ou Software Development Kit) contenant les API, outils et do-cumentations permattant de dé-velopper vos applications. Le kit de développement installé, vous pourrez coder vos appli-cations via Visual Studio et ain-si rester dans un environnement connu. Néanmoins, il faudra installer les Azure Tools pour Visual Studio afin de pouvoirbénéficierdetouslesoutils.

Vous trouverez également sur Internet les Azure Services Kit contenant un ensemble de pré-

sentations, exemples et tutoriaux de toutes les possibilités qu’offre cette nouvelle plateforme.

Cette technologie a-t-elle de l’avenir ?

Certains voient le cloud compu-ting comme un effet de mode, d’autres comme une révolution technologique sans précédent, les points de vues diffèrent. En effet, on peut se demander quels types de sociétés seraient interessées par la mise « dans le nuage » de leurs applications, et si cela leur seraitbénéfiqueounon.Onima-gine mal les applications métiers en place actuellement être réa-daptées pour le cloud computing. De plus, il reste actuellement difficile de porter intégralementet sans difficultés une applica-tion existante pour le « nuage ». Néanmoins, cela reste possible mais peut prendre un certain

Page 8: Les Cahiers de l'EPSI - N°24

8 Les cahiers de l’EPSI n°24

Microsofttemps suivant la façon dont a été conçue l’application au préalable et risque d’obliger une refonte de celle-ci.L’autre question que l’on peut se poserestcelledelaconfidentiali-té des données. Car héberger une application métier comportant toutes les données importantes pour la société pourrait inquiéter les directeurs de services infor-matiques et les repousser dans le choix de la mise en place de ce type de système. Même si les so-ciétés travaillent sur cette techno-logie à temps plein, le fait d’avoir son application «volatile» sur la toile pourra dissuader les plus sceptiquesetattachésàlaconfi-dentialité de leurs données cri-tiques.

Pourtant, le cloud computing peut être considéré comme une évolution non négligeable de la conception de l’informatique actuelle. Considéré par Micro-soft comme une nouvelle étape de l’évolution de l’informatique

après la création d’Internet, il re-présente une nouvelle forme de business pour la firme de Red-mond mais également un marché sur lequel il se positionne dès sa création, contrairement à d’autres technologies pour lesquels Mi-crosoft avait tardé à s’implanter. L’emergence du cloud computing pourrait permettre aux sociétés décidant de passer le cap, d’offrir la possibilité aux utilisateurs, où qu’ils soient sur le globe, d’accé-der à l’application. On pense par exemple à une société ayant plu-sieurs filliales dans lemonde etqui serait accessible par tous les employés où qu’ils se trouvent. Enfin, l’ouverture de la techno-logie avec des langages tels que PHP ou Python va permettre au cloud computing d’évoluer et de proposer de plus en plus de pos-sibilités aux utilisateurs et aux développeurs.

Le cloud computing possède donc des adeptes et des détrac-teurs, mais la technologie tend à

évoluer et à être de plus en plus utilisée par les surfeurs, mais son utilisation pour des applications orientées métier restent encore difficileàmettreenœuvreenen-treprise.

Dorian LAMANDEWolfgangLEGROS

Page 9: Les Cahiers de l'EPSI - N°24

9

Page 10: Les Cahiers de l'EPSI - N°24

10 Les cahiers de l’EPSI n°24

DOSSIER : Green IT

Dossier GreenITMettez-vous au vert !

Page 11: Les Cahiers de l'EPSI - N°24

11

Depuis un bon moment déjà, l’écologie est «le» sujet de société par excellence... Si bien qu’il vient même s’introduire dans le monde de

l’informatique! Comment, pourquoi, jusqu’où ? Découvrez les te-nants et aboutissants de la Green IT !

La Green IT comme nouveau modèle de développement du SI 2009 devait être l’an 0de la Green IT, le début d’une nouvelle façon de faire évoluer le parc informatique. Cependant la crise économique et les res-trictions budgétaires qui en dé-coulent, ont obligé les décideurs informatiques à retarder ou ralen-tir le passage à l’acte écolo. Le mouvement n’est pas pour autant mort.

Contrairement à ce que certains pensent, la Green IT ne consiste pas en une conglomération de militants écologiques, d’une pe-tite poignée d’irréductibles éco-los radicalistes. Cela ressemble fortement à l’Open Source lorsque l’on y regarde de plus près. Le but initial vient d’idéa-listes cherchant à bâtir un monde plus juste. Et dans les deux cas, l’idée se transforme peu à peu en réalité économique et éthique. Les entreprises sont maintenant conscientes que la Green IT, en-core un fois au même titre que l’Open Source, représente la maîtrise de son système d’infor-mation.

Les entreprises y voient deux buts. Le premier est bien sûr économique. Il est important de parvenir à réduire les consom-mations énergétiques d’un parc informatique et de réduire par la

même occasion ses factures. Les éco taxes deviennent elles aussi uneréalité.Afind’éviterlebesoind’un changement trop brutal dans un avenir proche, il est nécessaire de démarrer dès aujourd’hui la métamorphose de son parc. Le deuxième intérêt est éthique. Une entreprise se doit, pour se for-gerunepersonnalité,de sefixerun certain nombre de valeurs. Le fait est que l’écologie est en vogue en ce moment auprès des communautés et du grand public. La Green IT est donc une oppor-tunité d’offrir une réputation éco-lo-responsableflatteuse.

Pour parvenir à réduire les coûts énergétiques, le chemin est long. Il commence bien sûr par une amélioration du matériel en mo-dernisant le parc. Côté serveur, la virtualisation est à la mode et cela se justifie facilement.Lapuissance de calcul d’un proces-seur est généralement utilisée sur un serveur traditionnel à hauteur de 10 ou 20%. La virtualisation offre la possibilité de mieux uti-liser les ressources des serveurs et donc de consommer moins. De plus, la virtualisation, qui elle aussi a le vent en poupe depuis maintenant plusieurs années, offre une plus grandes flexibi-lité et une plus grande sécurité. Côté poste client, les alternatives

sont diverses. Bien sûr cela passe par une modernisation du maté-riel mais la gestion énergétique incombe aussi au système d’ex-ploitation. C’est en effet ce der-nier qui se chargera de la gestion énergétique en modulant la vi-tesse du processeur ou en gérant la mise en veille. Autre tendance du moment : le client léger. Une étude menée par Wyse démontre que leurs clients légers permet-tent de réduire les consomma-tions énergétiques jusqu’à 90%par rapport aux PC traditionnel. Ces petits postes disposent d’un autre avantage : leur durée de vie est supérieure à celle d’un PC. Ne disposant pas de pièce mécanique (comme c’est le cas sur les disques dur actuels) les clients légers sont moins soumis aux casses matérielles et évite le renouvellement trop fréquent de composants dont le recyclage reste un problème.

Le recyclage est aussi une prio-rité pour l’adoption d’une atti-tude écologique. Première cible : le gaspillage de papier. Les consommations de papier ser-vant à l’impression sont astrono-miques. Il est vital d’inculquer aux utilisateurs des nouvelles méthodes de travail plus respon-sables. Le traitement du matériel vétuste et lui aussi à envisager. Il

Page 12: Les Cahiers de l'EPSI - N°24

12 Les cahiers de l’EPSI n°24

DOSSIER : Green IT

est nécessaire de considérer les temps de vie et de travailler à leur prolongation.Enfinlaconsommationexcessivede ressources par les logiciels est un problème qui, lui, n’a pas de solution immédiate. On constate facilement que les logiciels sont de plus en plus gourmands. Faute aux développeurs qui ne doi-vent plus regarder à la consom-mation de leurs programmes et n’optimisent pas leur code. Un programme écrit en Java ou en C# est bien plus consommateur qu’unautreécritenC++.Iln’estnéanmoins pas envisageable de revenir en arrière, ces langages représentant tout de même des outils précieux permettant de rac-courcir énormément les temps de développement et de gagner en maintenabilité. La Green IT est en marche, c’est indéniable. Le modèle écolo-gique se transforme en modèle économique. Les DSI doivent s’atteler dès maintenant à la tâche afind’éviter d’accuser un retardtrop important lorsque celle-ci deviendra incontournable. Pour ce faire il est nécessaire dans

un premier temps de définir lesconsommations actuelles d’éner-gie afin de cibler et planifierdans le temps les évolutions à apporter. Il faut ensuite vi-ser à rallonger la durée de vie du matériel et à mieux gérer le recyclage.Enfinil faut respon-sabiliser les uti-lisateurs face à leurs méthodes de travail.

La virtualisation est-elle une bonne piste ?

La virtualisation existe depuis un bon moment déjà, mais elle est encore très peu utilisée par les en-treprises, ceci par souci de com-plexité ou de maintenance dans la plupart des cas.Pourtant, les chiffres sont là :

Jérémy HIGGINS

Page 13: Les Cahiers de l'EPSI - N°24

13

Microsoft System Center,

une solution certifiée Green IT

Les solutions System Center intégrées donnent aux administrateurs la possibi-lité d’optimiser les ressources, d’améliorer la visibilité des parcs informatiques et des problèmes éventuels, de respecter les ni-veauxdeservicedéfinisetdega-gnerenefficacité, toutenrédui-sant les coûts mais également la pollution.Les différents produits de la gamme :

•ConfigurationManagerLa Maintenance peut représenter jusqu’à 70% du coût d’un sys-tème, Confi-guration Ma-nagersimplifiele déploiement d ’ a p p l i c a -tion, l’auto-m a t i s a t i o n des tâches, la gestion des configurationset du changement, la gestion de la mise en conformité légale et l’administration des politiques de sécuritéafind’améliorerl’agilitédu système.

•DataProtectionManagerUn agent installé sur chaque ma-chine permet de gagner du temps dans la sauvegarde et dans la res-tauration, en permettant de sau-vegarder des données à structure logique complexe de type base de données sans les démonter. La synchronisation est à intervalles réguliers et se fait uniquement par une analyse des changements effectués.

•OpérationManagerUn outil permettant de facile-ment surveiller les services infor-matiques mais aussi de prévoir

la nécessité d’une nouvelle ma-chine virtuelle par exemple.

•SystemCenterEssentialsUne solution d’administration unifiée qui permet de gérer defaçon proactive leurs environ-nements techniques avec une meilleureefficacité.

•VirtualMachineManagerSolution complète pour l’admi-nistration centralisée d’une in-frastructure de serveurs virtuels: créer, configurer et déployer denouvelles machines virtuelles et gérer de manière centralisée les infrastructures. Une segmen-tation des serveurs, permettant d’allouer ou désallouer des ma-

chines virtuelles en fonction du besoin. Mais aussi une pro-position de virtualisation en fonction de l’existant.

•SystemManagementServerAdministration de parc infor-matique, inventaire et gestion des applications et de mises à jour de sécurité.

YannGARIT

Page 14: Les Cahiers de l'EPSI - N°24

14 Les cahiers de l’EPSI n°24

Décisionnel

L’alternative Open Source de l’extraction de données

Page 15: Les Cahiers de l'EPSI - N°24

15

Business Intelligence re-présente l’exploitation des don-nées d’une entreprise dans le but de faciliter la prise de décision de décideurs et ainsi anticiper sur leurs actions futures au sein de l’entreprise. L’objectif de cette étape est de centraliser toutes les données d’un système d’infor-mation, qui peuvent être issues de milieux hétérogènes, dans un entrepôt de données (ou datawa-rehouse).

La suite du processus pré-voit le traitement de ces données afin de calculer les indicateurssouhaités en fonction d’une pro-blématique posée au préalable. Le processus décisionnel se ter-mine par la publication des résul-tats obtenus (reporting) de façon à mettre en avant les indicateurs àvaleurajoutéeafind’orienterledécideur.

Bien qu’indispensable dans la compréhension globale d’un processus décisionnel, les éléments évoqués dans le second paragraphe ne seront pas présen-tés dans cet article. Nous nous fo-caliserons sur le choix d’une mé-thode d’extraction des données et sur l’émergence et l’intérêt d’un outil Open Source.

Le choix d’une mé-thode d’extraction des données

Une des difficultés ma-jeures dans la phase d’extraction de données d’un processus déci-sionnel est le choix d’une solution

d’intégration. A vrai dire, aucune des deux méthodes présentées ci-dessous n’est à préconiser. Son choix doit se faire en fonction des fonctionnalités recherchées et de ladifficultéàappréhender.

1.Créationdecodespécifique2. Utilisation d’un outil ETL (Ex-tract – Transform – Load)

La solution d’un développement spécifique est intéressante à uninstant donné. En effet, elle per-met de rester très proche des spécificités métiers du cas pré-sent, tout en s’affranchissant des contraintes de l’utilisation d’un outil ETL (coût, intégra-tion, prise en main, formation). A contrario, la solution trouve son point faible dans l’évolutivité du système d’information d’une en-treprise. A chaque modificationmétier, le code doit être adapté,

corrigé, voire totalement redéve-loppé, sans parler d’éventuelles contraintes de turn over parmi les développeurs.

L’utilisation d’un outil ETL est intéressante là où la so-lution d’un développement spé-cifique trouvesespoints faibles.Grossièrement, un ETL peut être défini comme un outil informa-tique permettant d’extraire des

données de sources hétérogènes (par exemple une base de don-nées PostgreSQL, des fichiersCSV et une base de données Oracle) pour les centraliser dans une destination homogène (une base de données MySQL) après avoir effectué des traitements (tri, agrégation, concaténation, filtre,fusion,etc.).

L’extraction de données est la première étape d’un processus déci-sionnel, qu’on pourrait traduire en anglais par Business Intelligence.

Principe d’un ETL

Page 16: Les Cahiers de l'EPSI - N°24

16 Les cahiers de l’EPSI n°24

DécisionnelL’alternative Open Source

Le présent article n’a pas vocation à comparer les dif-férents outils ETL, ni en termes de performance, ni en termes de fonctionnalités, mais plutôt à montrer l’émergence des outils Open Source sur un marché arri-vant tout juste à maturité.

Il y a encore peu de temps, le décideur pouvait choisir d’uti-liser un outil ETL propriétaire pour mettre en œuvre des pro-jets d’intégration complexes. Bien entendu, la contrainte de ce type d’outil est le coût (licence et/ou formation) qui néanmoins justifie une palette complète defonctionnalités et surtout les per-formances. C’est en effet sur ce dernier point que va être caracté-risé un outil ETL.

Depuis peu, les outils Open Source ont fait leur appa-rition sur ce marché. Force est de constater que dans le contexte économique actuel, cette émer-gence est une très bonne nou-velle pour les décideurs : utiliser un outil gratuit pour mieux déci-der.Gratuit ?Rappelons toutdemême qu’Open Source ne signi-fie pas forcément gratuit. Dansnotre cas, nous mettrons l’Open Source en avant grâce à l’ou-til Talend Open Studio, qui est Open Source et gratuit (L’étude aurait bien pu être faite autour de Pentaho Data Integrator).

Le décor étant planté, la question à se poser est toujours la même : que choisir ? Un outil propriétaire avec un coût d’entrée mais un très bon retour d’expé-rience... ou un outil Open Source et gratuit mais avec une moins bonne stabilité du produit. Tout l’intérêt d’un produit Open

Source est là. En amont, et au début du développement, un ou-til Open Source sera bogué, in-complet, etc. La mise à disposi-tion du produit à des utilisateurs va permettre la création d’une communauté qui, ayant accès au code, va pouvoir signaler les bo-gues, trouver des solutions ou des requêtes qui vont être transmises auxdéveloppeurs afind’amélio-rer l’outil. Au fur et à mesure, et quelques versions intermédiaires plus tard, le produit devient de plus en plus complet et de plus en pus robuste (Voir les versions 1.0.0 et 3.1.1 de Talend OpenStudio par exemple).

Ajoutons à cela l’intérêt p r o b a b l e -ment le plus i m p o r t a n t , et que l’on trouve sur Talend Open Studio: l’in-tégration de ses propres composants. En effet, le fait d’avoir accès au code permet aux utilisateurs de modifierleproduitafinqu’ilcollele plus possible à leur environne-ment (par exemple un connecteur à une application interne, comme un ERP). Comme le montrel’image ci-dessus, Talend Open Studio intègre nativement des connecteurs aux applications mé-tiers et il est possible d’en déve-lopper soi-même ou d’en ajouter à partir de l’ecosysteme. L’eco-systeme est un dépôt de compo-sants Talend que les utilisateurs développent et partagent. Ceux-ci ne sont pas intégrés nativement dans le sens où peu de personne sont intéressées, mais ils restent disponibles pour quiconque vou-drait s’en servir (encore un as-pect intéressant d’un projet Open

Source).

En conclusion, il s’agit de rappeler les points forts et faibles d’un outil Open Source com-paré à un outil propriétaire sur le marché des ETL. En amont, les points forts et certains d’un outil propriétaire sont le retour d’ex-périence et les performances. En effet, les performances sont ex-trêmement recherchées dans ce domaine. Les points faibles d’un outil Open Source, au début du développement, sont les points forts de l’outil propriétaire. En ef-fet, l’accent est plus porté sur les fonctionnalités que sur les per-formances. L’ouverture du code

à une com-m u n a u t é , point fort de l’Open S o u r c e et point faible des outils pro-priétaires, laisse en-trevoir un rapide rat-

trapage du retard en termes de performance. Que dire des fonc-tionnalités à ce niveau là … En définitive, dans le contexte éco-nomique actuel, qui veut que les décisions soient bien prises sans trop dépenser, l’Open Source est une alternative de premier choix aux outils propriétaires.

RémyDUBOIS

Page 17: Les Cahiers de l'EPSI - N°24

17

BTP et INDUSTRIETELECOM et INFORMATIQUE

BP 30051BP 30051

Page 18: Les Cahiers de l'EPSI - N°24

18 Les cahiers de l’EPSI n°24

Technologies

Novell facilite la gestion des workloads dans les Data Centers

Les nouveaux produits PlateSpin Recon TM, MigrateTM, Protect TM, et Orchestrate TM qui sont complémentaires, permettent respectivement de profiler, de migrer, de protégeret de gérer des workloads phy-siques et virtuels.

Dans la plupart des cas, les entre-prises surestiment la productivité de leur Data Center. En y regar-dant de plus près, on peut trouver une multitude de fonctionnalités i n e x p l o i -tées à m e t t r e en œuvrea v a n t d ’ a j o u -ter toute n o u v e l l e m a c h i n e à un Data Center. De plus, le déploiement d’une nou-velle application sur un serveur

peut être lent, complexe et coû-teux.

Novell tente à travers sa gamme PlateSpin de répondre à cette problématique d’utilisation, de coûtetdeflexibilitédesserveurs.Sans plus attendre, détaillons l’ensemble de la gamme PlateS-pin.

PlateSpin Migrate

PlateSpin Migrate est un outil qui vous permet d’avoir une approche unifiéepour résoudre les problèmes de por-tabilité et de migra-tion critique.

Cette solution vous permet entre

autres de pratiquer la migra-tion anywhere-to-anywhere (de

n’importe où à n’importe où) des charges de travail, dans le réseau, entre les serveurs physiques, les hôtes virtuels.

PlateSpin Migrate permet le transfert des charges de travail d’un hôte vers un autre quel que soient les configurations maté-rielles, systèmes d’exploitation ou la technologie de création d’image utilisée.

Cette solution déplace les charges de travail sans avoir à éteindre les serveurs de production, elle véri-fieentempsréelqueleschargesde travail n’auront aucun souci de fonctionnement.

Novell, grâce à sa gamme de produits PlateSpin Management, pos-sède la première solution capable de gérer, de manière unifiée, les

workloads physiques et virtuels.

Workload Manage-

ment : ensemble des techniques destinées à optimiser la charge de la machine et du

réseau

Page 19: Les Cahiers de l'EPSI - N°24

19

PlateSpin Protect

PlateSpin Protect protège les charges de travail des serveurs physiques et permet également la récupération de données perdues.

Dans un seul environnement de reprise virtualisé, la solution Protect permet de consolider dif-férentes charges de travail. Elle permet aussi de tester rapidement les plans de reprise après un si-nistre sans arrêter le processus de sauvegarde. Vous pouvez aussi répliquer une charge de travail sur le serveur de reprise virtuelle rapidement.

PlateSpin Forge

PlateSpin Forge est une solution qui permet de restaurer rapidement des charges de tra-vail des serveurs lorsque ceux-ci tombent en panne. Cette restau-ration se fait sur n’importe quel hôte physique ou virtuel, indé-pendamment du matériel, de la marque ou du constructeur. De plus, vous pouvez adapter ce

modèle en fonction de la taille de votreDataCenter (10 ou 25charges de travail).Cette solution permet de récu-pérer directement les charges de travail en attente via un message par courriel, périphérique mobile synchronisé ou par l’interface web d’utilisateur.Lors de la reprise d’une charge de travail, cette dernière peut s’ef-fectuer selon le dernier état de fonctionnement correct connu.La technologie de synchroni-sation des serveurs offerte par PlateSpin Forge permet le trans-fert des charges de travail sur un réseau WAN dans le cas où l’on gère plusieurs sites distants.

PlateSpin Recon

PlateSpinReconsertàoptimiserl’analyse et la création de plans soignés pour le succès de vos ini-tiatives de Data Center, il dispose pour cela d’une gamme com-plète de fonctions de profilage,d’analyseetdeplanificationdescharges de travail qui éliminent le recours aux conjectures lors des

opérations complexes que sont la consolidation des serveurs, les reprisesaprèssinistre,laplanifi-cation de la capacité et les initia-tives de Data Center « vert ».

Le schéma de la page suivante montre bien l’apport de Recondans la gestion de votre Data Center.Voyons donc de plus près la gamme des fonctionnalités pro-posées par PlateSpin Recon :

•Collectedesdonnéesàdistance:Comme son nom l’indique, cette fonction va permettre de rassem-bler des données d’inventaires à partir de vos serveurs mais aussi des informations sur leurs perfor-mances.

•Puissantemodélisationdesdon-nées :Grâce à cet outil, vous pourrez sélectionner la meilleure mé-thode de consolidation pour vos serveurs, de plus l’intégration étroitedeReconàVMWareVir-tual center permet d’améliorer la visibilité de l’infrastructure vir-tuelle et le mode de gestion du Data Center.

• Création et envoi de rapportspersonnalisés

•Captureetexportationflexiblesdes données :PlateSpin Recon permet d’ex-porter des données vers un grand nombre de formats standard (HTML, PDF, Word, CSV, Ex-cel,etc.)afindecréerlesrapportsdont vous avez besoin.

•Évolutivitéà l’échellede l’en-treprise :AvecPlateSpinRecon,vouspou-vez rassembler les données is-sues de divers outils de collecte de sorte à centraliser le stockage des données, l’analyse et la pla-

Platespin Migrate : principe de fonctionnement

Page 20: Les Cahiers de l'EPSI - N°24

20 Les cahiers de l’EPSI n°24

Technologiesnification.

•Rapportsdecroissancedesma-chines virtuelles

•PriseenchargedeDataCentersmultiples

• Création flexible de rapportsd’imputation des frais

•Planification

•Analysedeschargesdetravail

•Modélisationdescénarios:Créez et comparez des scénarios personnalisés avec des caracté-ristiquesdéfiniesparl’utilisateuren ce qui concerne les serveurs cibles. Utilisez les modèles qui vous sont proposés pour créer un

plan de consolidation optimal.

• Analyse de la consommationd’électricité et des besoins en re-froidissement

•Analysetemporelle

• Prévisions d’utilisation et descharges de travail

PlateSpin Orchestrate

Ce produit sert à auto-matiser la gestion des machines virtuelles, c’est une évolution de ZenWorks Orchestrator. L’objec-tif d’Orchestrate est d’harmoni-ser le fonctionnement et d’opti-miser la valeur des technologies de pointe telles que la virtua-lisation et le calcul haute per-

formance. Orchestrate interagit avec les serveurs de gestion des ressourcesdeconfigurationetdestockage pour gérer la relation entre l’ordinateur physique et les ressources de stockage.

PlateSpinRecon:ApportdanslagestiondesDatacenters.

SteveLACROIXThomasLEROY

Page 21: Les Cahiers de l'EPSI - N°24

21

Page 22: Les Cahiers de l'EPSI - N°24

22 Les cahiers de l’EPSI n°24

Technologies

A la recherche de mobilité et de sécurité ?Adoptez Globull !

Page 23: Les Cahiers de l'EPSI - N°24

23

Le Français Bull , spé-cialiste des mainframes et des clusters de calcul à hautes perfor-mances, pionnier dans le domaine de la sécurité informatique, sort fièrement son nouveau produit :le Globull.

Doté des meilleures technologies de haute sécurité pour la mobi-lité, ce disque dur externe, d’un poids de 120 grammes et d’une capacité de 60Go, aux allures des dernières générations de Ipod, est en fait un vrai coffre-fort crypté pour les données. Et pour cause: un processeur de sécurité entiè-rement développé par Bull, as-sure à la fois l’authentificationde l’utilisateur et le chiffrement à la volée des données qui entrent sur le disque à l’aide de l’algo-rithmeAESàcléde256bits. Ilpermet alors de renforcer la sé-curité d’applications tel que le réseau privé virtuel, la voix sur IP chiffrée, la signature électro-nique, etc.

En plus d’être un média de stoc-kage chiffré bâti autour d’un pro-cesseur cryptographique haute performance, Bull a intégré éga-lement d’autres innovations au Globull, telle une authentifica-tion par écran tactile ou encore un environnement logiciel de virtualisation. Pour ce qui est de l’authentification par écran tac-tile,ilsuffitsimplementd’entrerson mot de passe directement sur le Globull et cela sans crainte car il garantit un niveau de pro-tection issu des technologies de défenses(Crypto Ignition Key). Pour ce qui est de l’environne-ment logiciel de virtualisation, le globull virtual desk permet l’installation standardisée de tout système Windows ou Linux sur le disque. Cela permet alors de transporter et de démarrer son propre environnement et ses ap-

plications sur toute machine hôte : PC, portable ou ultraportable, et cela en toute sécurité, sans laisser aucune trace.“ L’utilisation du Globull ne né-cessite aucune installation de lo-giciel sur le PC hôte. Il en utilise les ressources, à savoir la mé-moire, l’écran, le clavier, les pé-riphériques et le processeur mais pas le disque dur. Toute la gestion de la sécurité est effectuée sur le processeur de sécurité interne du Globull. A aucun moment les clés de sécurité ne vont se bala-der dans la mémoire vive du PC hôte, elles sont donc inacces-sibles aux logiciels espions ”, ex-plique Alain Filée, directeur des produits de sécurité chez Bull. Reste maintenant à savoir pourquels types d’utilisateurs ce nou-veau produit est destiné.

Pour qui ?

On l’aura compris, le globull est destiné à des professionnels qui doivent se déplacer régulière-ment avec des données sensibles : les cadres, les diplomates, les financiers, les juristes, etc. Ilpermet également de travailler au bureau, en clientèle, chez les partenaires ou encore à domicile, en ayant toujours une sécurité ac-crue, évitant ainsi l’espionnage, le vol des données, l’interception des communications confiden-tielles et les intrusions.Bull marque une belle avancée avec globull en termes de mobi-lité et de sécurité. Sa robustesse au niveau cryptographique lui a permis d’être adopté pas des ins-tances gouvernementales. Comp-teztoutdemême605€HTl’unitépour le globull 60Go, avec l’op-tion de virtualisation et trois ans de garantie et maintenance sur le produit.

C a r a c t é r i s t i q u e s techniques

Capacité 60 Go120 grammesSolution globull Virtual Desk en Option*

Sécurité

Processeur de sécurité intégréPerformance 100 Mb/s en AES 256Disque100%chiffréenAES256Disque 100% protégé en intégrité(Hmac-SHA1 avec clés de 256bits)Support des standards PKCS#11 et MS-CAPITechnologie CIK (Crypto Igni-tion Key) de niveau défenseAlgorithmessupportés:AES256mode CBC ouECB (génération, chiffrement), RSA2048(génération,signature, chiffrement), SHA-1 (HMAC)Générateur d’aléas matériel conforme FIPS 186-2

Jonathan SAJ

Page 24: Les Cahiers de l'EPSI - N°24

24 Les cahiers de l’EPSI n°24

Culture

Le Libre

L’open source, souvent considéré comme manquant de maturité, est maintenant connu de tout le monde dans le milieu des technologies de l’informa-tion. Cette progression s’explique par la meilleure adéquation des solutions libres avec la demande des entreprises et la volonté de limiter les coûts dans un contexte économique parfois difficile.

Le modèle

En France, le Libre est fa-cilement associé au «gratuit». «Si le produit est open source , alors il est totalement gratuit». Cette erreur provient de la traduction qui a été réalisée de l’anglais. En effet, beaucoup interprètent «Free Software» par «Logiciel Gratuit». C’est la polysémie du terme «free» se traduisant par «libre» ou «gratuit» qui est à l’origine de la confusion. Un lo-giciel est libre si le code source est disponible. Il peut donc être vendu à condition que les sources soient fournies.

Le modèle du logiciel libre doit être étudié sous plusieurs angles:• économique: il repose, nonpas sur les licences, mais sur les offres de services associées au produit (installation, personna-lisation, support, formation...).

Elles constituent l’élément essen-tiel dans le choix, par les profes-sionnels, des solutions libres.• idéologique: ledéveloppementtourne autour d’une communauté d’utilisateurs et de développeurs. L’objectif n’étant pas de garder secret le code source, l’avantage concurrentiel se situant au niveau du service.• d’organisation: il existe deuxtypes de projet. D’un côté, ceux gérés uniquement par une com-munauté d’utilisateurs et de dé-veloppeurs et de l’autre les pro-jets dirigés par une entreprise (éditeur par exemple), auxquels participent des contributeurs. Dans certains cas, la société gère elle-même le développement du cœurdemétieret laisse lacom-munauté créer des modules.

Les atouts

Le principal avantage provient du modèle de dévelop-pement : permettre à n’importe quel développeur d’apporter sa pierreàl’édificedonneunpoten-tiel très important aux logiciels Open Source. Les utilisateurs ont, quant à eux, la possibilité de si-gnaler les erreurs ou proposer des améliorations au sein de plate-formes dédiées (Mantis pour les bugs, SVN pour le contrôle de ré-visions). Le potentiel est énorme ! Imaginez : des milliers de déve-

loppeurs contribuant à un même projet ! Cela permet d’atteindre une qualité bien meilleure. De plus, le code étant public, il est toujours possible de l’optimiser ou de corriger les quelques bugs résiduels.

Les limites

L’organisation du projet doit être bien pensée. En effet, le nombre de contributeurs pouvant serévélertrèsélevé,ilfautdéfi-nir clairement les objectifs pour éviter que chacun crée une partie sans cohésion. Il faut pour cela, soit avoir un «leader» charisma-tique, tel que Linus Torvald pour Linux,ouunesociétéquidéfinitla ligne directrice du projet, par exemple Canonical pour Ubuntu.Le projet étant dépendant d’une communauté, il faut que cette dernièresoitsuffisammentdéve-loppée pour garantir une réacti-vité face aux problèmes ou aux évolutions des besoins des utili-sateurs.

Les «success stories» de l’open source

MozillaAccusédefolieen1998lorsqu’ildécida de fournir le code source de son Navigator, Netscape ve-

Page 25: Les Cahiers de l'EPSI - N°24

25

nait en fait de donner indirec-tement naissance à Mozilla qui allait en reprendre les grandes lignes mais sous licence libre. Connu aujourd’hui sous le nom de Mozilla Foundation, le lézard s’est désormais imposé en tant que premier concurrent à Inter-net Explorer grâce à son célèbre navigateur Firefox avec plus de 20% du marché.

Apache Apache est un serveur HTTP qui est apparu en 1995d’abord en tant que collection de correctifs au serveur NCSA HTT-Pd1.3.Trèsviteindépendantdece dernier, il est devenu rapide-ment le serveur HTTP le plus ré-pandu sur Internet. Aujourd’hui produit par l’Apache Software Foundation, il représente plus de 73%despartsdemarché.

UbuntuPouvant être traduit par une ex-pression africaine désignant « Je suis ce que je suis grâce à ce que nous sommes tous », la célèbre distribution est née en avril 2004 d’un constat de Mark Shutt-leworth (ancien développeur Debian et créateur de Ubuntu). Il dénonce en effet la part de marché écrasante de Microsoft et l’omniprésence de son système dans les ordinateurs vendus. Ce-lui-ci est en train de gagner son pari, puisque Ubuntu représente 48% des parts de marché des sys-tèmes libres et surtout les men-talités sont en train de changer, notamment avec l’arrivée des Netbook qui se vendent la plu-part du temps avec un système Ubuntu d’installé.

Asterisk Crééen1999parunétu-diant cherchant un commutateur téléphonique à moindre coût, le PABX Open Source s’est désor-

mais imposé comme une réelle alternative aux concurrents pro-priétaires en offrant autant, voire plus, de services téléphoniques, notamment en matière de VOIP mais présentant surtout l’avan-tage d’être Open Source.

Talend Fort d’une expérience de trois ans en recherche et dévelop-pement, Talend s’est rapidement imposé avec sa solution Talend Open Studio pour devenir le premier fournisseur de solutions d’intégration de données Open Source. Les points forts de cet outil étant entre autres ses perfor-mances, sa robustesse et surtout l’intuitivité de son environne-ment de travail.

FabriceHENRYAlexandre WESTFAHL

Mickael WINNEPENNINCKX

Page 26: Les Cahiers de l'EPSI - N°24

À LA PORTE DE LA MÉTROPOLE LILLOISE :

L’IMPRIMERIE LÉONCE DEPREZ

Spécialiste de la fabrication de catalogues, brochures, guides et prospectus avec routage intégré.

Tél : +33(0) 3 21 52 96 20Fax : +33(0) 3 21 52 96 21

Siège : ZI ‘Le Moulin’, 62 620 Ruitz

Site de Wancourt : Parc d’activité Artois Pôle 2, 62 000 Arras

Certification en cours

Site : www.leonce-deprez.fr - email : [email protected]