Bannière INETD

Les F.A.Q.

La virtualisation apporte, la souplesse d’administration, des capacités de consolidation, des mécanismes de protection quels qu’ils soient et une forte évolutivité. La virtualisation s’impose donc comme un ensemble de technologies incontournables pour la mise en œuvre de votre cloud privé. Certes l’infrastructure devient ainsi flexible et dynamique, cependant l’organisation et les processus doivent évoluer.

Les solutions que propose INETD assurent :

  • l’automatisation et le « provisionning »;
  • le contrôle d'utilisation des ressources ;
  • la normalisation et la standardisation ;
  • le reporting voire la refacturation ;
  • le Contrôle des services basé sur des règles ;
  • l’interopérabilité des clouds et de leur gestion.
Les apports de la virtualisation sont considérables et incontestables. La virtualisation est un des éléments clef du cloud-computing, notamment dans le cadre d’un cloud-privé.

Citrix et Microsoft font partis des principaux acteurs.

Par son antériorité et la richesse fonctionnelle de ses solutions VMware est le leader reconnu.

IBM propose une solution PowerVM apportant une virtualisation pour les environnements AIX, IBMi et Linux sur des systèmes à processeur IBMPower.

Documents produits :

Les contrôleurs de domaines sont des éléments critiques d'une architecture Active Directory. La question de leur virtualisation est donc sensible. A l'origine Microsoft ne supportait pas la virtualisation de ces services. Depuis, et sous certaines conditions, il est possible de les virtualiser (http://support.microsoft.com/kb/888794/fr). Cependant pour des raisons de stabilité et de synchronisation, il est préférable de garder un serveur physique qui hébergera les services de temps et les rôles uniques au niveau domaine.
Le service de messagerie est devenu tout aussi critique que des applications métiers ? Cette criticité requiert une haute disponibilité du serveur de messagerie. Depuis la version Microsoft Exchange 2000, Microsoft intègre une solution de clusterisation. Microsoft a fait évoluer cette solution en proposant, depuis la version Exchange 2007, la haute disponibilité à longue distance sans ressource partagée. De cette manière le service de messagerie est sécurisé sur des sites géographiquement éloignés et donc protégé contre la perte dans un site.
Le principe sous-jacent du tiering des données est de stocker les données sur différents types de supports en fonction de la criticité des données. Ainsi, les données stratégiques bénéficient de disques très fiables, et de hautes performances et les données de classes de services inférieures sont stockées sur des technologies plus capacitives et moins onéreuses.

Les mécanismes actuels permettent d’automatiser l’attribution de ressources performantes, même ponctuellement, notamment grâce aux disques SSD.

La virtualisation du stockage permettra de gérer de façon transparente le tiering des données entre des baies de technologies et de constructeurs différents.
Le Thin-provisioning ou mécanisme d’allocation granulaire de capacité permet de présenter des volumes logiquement plus importants que la capacité physique du stockage.

Ceci apporte :

  • Un placement des données plus pertinent dans les unités de stockage ; notamment lors d’extension future ;
  • Un gain en temps d’administration ;
  • Un meilleur taux d’utilisation de la capacité de stockage ;
  • Une utilisation des espaces de stockage en rapport aux besoins réels assurant ainsi une adéquation aux investissements.
Figure imposée à toute production informatique la migration des données est une problématique récurrente. Elle est rendue nécessaire lors de changement de baies de stockage ou lors de déplacement des données pour palier à un besoin d’espace ou encore pour répondre à un changement de classe de service.

L’opération est sensible pour maintenir la production et éviter toute perte de données sans que les utilisateurs ne soient impactés.

Pour répondre à ces enjeux, les dernières générations de baies de stockage IBM V7000 ou IBM XIV permettent de migrer les données des anciennes baies (non IBM) vers ces dernières, de façon transparente.

Les solutions de virtualisation du stockage comme IBM SVC ou FalconStor NSS garantissent ces fonctionnalités de migration permanentes. Ainsi la virtualisation du stockage répond aux exigences de migration lors de changement de baies mais sont particulièrement adaptées pour des réorganisations régulières des espaces de stockage ou des changement de classes de services entre des baies hétérogènes.
Pour répondre à une meilleure maîtrise des performances de votre stockage SAN et anticiper vos besoins INETD propose des offres de conseils et de préconisations.

Cette prestation vous permet aussi d’analyser les chutes de performance de votre environnement ou d’optimiser l’équilibrage de charge.

Lien vers analyse performances du SAN

Voir aussi nos services dits de « conception ».
Pour répondre à une meilleure maîtrise des volumétries de votre stockage et anticiper vos besoins INETD propose des offres de conseils et de préconisations.

Lien vers cartographie des données

Voir aussi nos services dits de « conception ».
La croissance des volumétries stockées est inévitable. Pour éviter que cette croissance ne dépasse trop rapidement les meilleures prévisions et capacity plannings des fonctionnalités novatrices sont pertinentes.

Parmi celles-ci, on y retrouve le thin-provisionning, le data-scrubbing, et la déduplication.

La compression des données présente aussi de nombreux avantages. Tout en réduisant les espaces de stockage elle n’opére aucune modification des données (par opposition à la déduplication). La solution IBM Real-Time Compression, IBM RTC, issue du rachat de Storwyse garantit le maintien des performances.

Flyer IBM RTC
La virtualisation du stockage permet de réaliser un miroir synchrone inter-site pour les données applicatives. Plus avancée que la réplication synchrone, la solution FalconStor NSS apporte un miroir synchrone. En cas de défaillance cette fonctionnalité permet de s’affranchir de la promotion des volumes et d’assurer ainsi d’une très haute-disponibilité.

Pour se faire les nœuds du cluster de virtualisation FalconStor NSS sont répartis entre les 2 salles informatiques et fonctionnent en mode Actif/Actif, via IP.

L’architecture de stockage est totalement résiliente et pallie à une défaillance d’une baie de stockage, d’une Fabric SAN, d’un ou plusieurs nœuds des clusters NSS et d’une perte totale d’un site.
Dans le cadre d’un sinistre, le service est rétabli (Reprise d’Activité) grâce à la solution RecoverTrac de FalconStor . RecoverTrac relance les services applicatifs sur des serveurs provisionnés, physiques ou virtuels.

RecoverTrac est un outil de gestion des sinistres (Disaster Recovery) qui automatise le passage en mode secours des serveurs, des applications et du stockage sur le site de reprise d’activité. RecoverTrac est un outil logiciel qui s’appuie sur la solution NSS.

Il exécute automatiquement des scripts selon des scenarios pré-établis. Il évite aux administrateurs du stockage de créer des scripts de reprise d’activité, et surtout de les maintenir en conditions opérationnelles. RecoverTrac intègre les mécanismes de retour à la situation d’origine.

Lien vers RecoverTrack
Ces termes sont régulièrement utilisés pour définir les stratégies que met en place une entreprise pour faire face à un sinistre ou désastre majeur. Le RTO (Recovery Time Objective) est le temps maximum admissible pour reprendre le service. Le RPO (Recovery Point Objective) est la perte maximale de données acceptable après redémarrage. Les objectifs de RPO et le RTO peuvent être différents selon qu'il s'agit d'un incident ou d'un désastre.

Le plan de continuité d’activité, ou le plan de reprise d’activité ne peut être bâti de façon cohérente qu’à partir de la définition du RTO et RPO.
Une VTL (Virtual Tape library) est un mécanisme permettant l’émulation de robotique de bandes et de lecteurs sur du disque.

Cette technologie, peut-être fournie par des « appliances externes » ou par des fonctions natives à certains logiciels de sauvegarde. Bien que les « appliances » soient dédiées et apportent d’autres avantages à la solution, la pertinence de l’un ou de l’autre dépend du contexte de chaque client. La sauvegarde sur disque permet de paralléliser les flux, alors que des lecteurs de bandes sont mécaniquement et physiquement limités dans un robot. Les temps de sauvegarde et de restauration sont souvent considérablement améliorer.
Bien que chaque constructeur ait développé son propre algorythme, le principe de la déduplication reste le même. La déduplication est un mécanisme de découpage des données en une multitude de tronçons. À chacun de ces tronçons est associé un identifiant unique. Ces identifiants sont stockés dans un index. L'objectif de la déduplication est de ne stocker qu'une seule fois un même tronçon. Aussi, une nouvelle occurrence d'un tronçon déjà présent n'est pas à nouveau sauvegardée, mais remplacée par un pointeur vers l'identifiant correspondant. Cette indexation de blocs uniques permet la réduction des volumes stockés sur disques.

La déduplication peut s’effectuer à la source ou à la cible, sur les données de production mais beaucoup plus souvent sur les données de sauvegarde. Elle peut-être réalisée à la volée, ou dans un second temps.

Parce que la déduplication est très en vogue, elle est galvaudée. Selon l’expérience INETD, elle n’est pas une fin en soi et ne répond à chaque situation.

INETD Consulting dispose des compétences sur les principales solutions du marché (IBM ProtecTier, FalconStor SIR, EMC DataDomain, HP VLS Sepaton, Quantum DXI, VEEAM Software, Netapp) permettant de définir les architectures techniques et fonctionnelles les plus appropriées aux besoins de nos clients.
Sécuriser les sauvegardes des sites distants est complexe disposant en règle générale de moins de ressources que les « data-centers ».

Les solutions sont multiples et dépendent des investissements précédemment réalisés pour les pérenniser. Des logiciels de sauvegarde comme IBM TSM ou Atempo Tina permettront de sauvegarder les sites distants vers le « data-center ». IBM TSM pourra aussi assurer la diffusion d’une politique de sauvegarde sur un ensemble de serveurs distants.

La technologie VTL/déduplication prennent tout leur intérêt. En effet, elles accueillent les sauvegardes locales rendant la restauration rapide. La déduplication réduit considérablement les volumes de données quotidien permettant de les répliquer, via IP, vers le « data-center ». Les sauvegardes des sites distants sont ainsi sécurisées. Certaines technologies comme la solution FalconStor apporte une déduplication globale.
La déduplication globale prend tout son sens lors de la réplication de plusieurs sites distants vers un data-center.

L’algorythme de la déduplication globale s’opère sur l’ensemble des sites et permet d’améliorer considérablement le taux de déduplication. En effet, la « comparaison » des blocks uniques est mutualisée à tous les sites.

Voir aussi Comment sauvegarder des sites distants avec Netapp ?
Un grand nombre d’applications nécessite des espaces de stockage importants, or elles contiennent peu de données, typiquement VMware.

Le data-scrubbing est consiste à récupérer les espaces vides libérés de leurs « 0 » permettant de gagner jusqu’à 50% d’espace sur certains environnements.
Le « metro-cluster », fonctionnalités des baies Netapp, permet de bâtir une configuration hautement disponible répartie entre deux sites distants. Elle met en œuvre deux machines NetApp en cluster et la solution SyncMirror qui assure la réplication des données en synchrone sur le site de secours, au travers d’une liaison haut débit Fibre. En mettant en place une infrastructure switchée entre les contrôleurs et les tiroirs disque, la distance peut alors monter jusque 100 Kms.

L’architecture MetroCluster présente un grand nombre d’avantages parmi lesquels :

  • La séparation entre les deux copies des données répliquées ;
  • Lors d’une indisponibilité, quelle soit due à un problème de disque, de câble ou de HBA, l’accès aux données s’effectue sans aucune intervention humaine, ni interruption de service vis-à-vis des applications ;
  • Les opérations d’écritures en « Y » sur les deux sites sont complètement transparentes vis-à-vis des utilisateurs et des applications, et permettent d’assurer le plus haut niveau de disponibilité ;
  • L’impact de la sécurisation sur les performances est nul (écritures en « Y »).
L'accès aux données se fait par des permissions sur des fichiers, répertoires ou partages. Cette authentification peut être centralisée ou effectuée localement sur chaque serveur. Afin d'unifier l'authentification Microsoft fournit un service d'annuaire, appelé Active Directory. Ce service stocke toutes les informations de comptes (utilisateurs, mots de passe, informations personnelles). Ce service est sécurisé (politique de sécurité par certificat, par jetons) et de haute-disponibilité (service multimaître). Les accès aux données se font donc après authentification et autorisation par l'Active Directory. L'Active Directory est donc un annuaire centralisé qui permet de gérer d'un seul point tous les comptes et accès.
Afin de répondre à la mobilité des utilisateurs sur plusieurs sites, il convient de traiter de l’accès à leurs données centralisées. Pour cela chaque utilisateur itinérant utilise les liens intersites. La solution consiste à mettre à disposition sur chaque site un réplica des données. Avec l'utilisation de l'Active Directory, l'utilisateur est « géolocalisé » et accède donc au réplica le plus proche de lui. Ce service Distributed File System Replication est une fonctionnalité native de Windows Server 2008.
Pour compléter l’administration de la solution IBM TSM, notamment en environnement multi-serveurs INETD préconise l’utilisation du logiciel TSMmanager.

TSM Manager facilite les opérations, produit des rapports graphiques et historise les informations sur de longues périodes pour fournir tous les éléments pour anticiper les besoins.

Entre autres il apporte :

  • une présentation graphique,
  • des tableaux de bord,
  • un suivi de l'externalisation des cartouches,
  • de rapport sur l’utilisation des lecteurs et des bandes,
  • des rapports graphiques exportables de la vue de l'ensemble des opérations TSM,
  • des comparaisons faciles entre l’activité de plusieurs serveurs facilitant la prise de décision sur des changements d’exploitation,
  • une surveillance de l'utilisation des ressources.

Pour télécharger la version d’essai (30 jours) de TSMmanager, cliquez ici
NetApp a développé une version de SnapVault destinée à la sauvegarde de systèmes tiers. Elle est appelée Open System SnapVault (OSSV) et permet d’intégrer les environnements non NetApp dans la politique de sauvegarde SnapVault.

Open System SnapVault peut être mis en œuvre en environnement Windows, VMware, ainsi que sur les principaux systèmes Unix et Linux du marché.

La sauvegarde étant toujours réalisée en mode incrémental bloc, OSSV permet de sauvegarder les sites distants avec des temps sensiblement réduits et un faible impact sur les réseaux.

Les ressources sur le site distant sont complètement déchargées de cette tâche grâce à la centralisation de l’administration offerte par les outils NetApp. Cette architecture fait appel aux fonctions de Snapvault « Secondary » mises en œuvre sur la baie Netapp du site principal.

Partagez notre expérience avec Sephora et LVMH-PCIS.
Les environnements VMware sont critiques car ils consolident un grand nombre de serveurs applicatifs. Améliorer les RTO et RPO devient donc crucial.

La solution Veeam Backup & Replication éditée par VEEAM Software remplit ces objectifs. Veeam Backup & Replication assure :

  • la Restauration d’une machine virtuelle entière, d’un fichier VMDK particulier, ou une application spécifique en quelques minutes seulement.
  • l’exécution d’une VM directement à partir d'un fichier de sauvegarde compressé et dédupliqué sur un support de stockage standard. Cette technologie évite d'avoir à extraire la sauvegarde et la copier dans l'espace de stockage de production
  • la restauration rapide de certains objets de toute application virtualisée, sur n'importe quel système d'exploitation en exécutant l'application depuis la sauvegarde dans un environnement isolé
  • La protection des données quasi-continue.

En s’intégrant parfaitement aux logiciels de sauvegarde « généralistes » la solution Veeam Backup & Replication complète leurs fonctionnalités sur la plate-forme VMware

Contactez nous pour partager l’expérience de nos clients utilisant IBM TSM et Veeam.

Contactez nous pour bénéficier d’une version d’évaluation.

Pour télécharger la présentation de Veeam Backup & Replication, cliquez ici.
Les plages horaires pour accéder aux données s’étendent en permanence (web, travail en 24/24h, internationalisation et décalage horaire) et les volumes de données sont de plus en plus importants. La nuit ne suffit plus pour sauvegarder les données.

De nombreux mécanismes existent :

  • au niveau des unités de stockage (Snapshots), et grâce à des connecteurs applicatifs (Snapmanager for…, Tivoli Flashcopy manager…)
  • au sein des logiciels de sauvegarde pour permettre la sauvegarde sans arrêter les applications, ou ne sauvegarder que les nouvelles données (sauvegardes incrémentales)
  • la sauvegarde sur disques, ou VTL ;
  • ….

Le savoir faire d’INETD, depuis 1999, consiste à vous accompagner dans la définition et le dimensionnement de l’architecture permettant de réduire les fenêtres de sauvegarde.
La compression et la déduplication assurent une diminution des espaces de stockage pour les données sauvegardées. Il convient également d’apporter une attention particulière aux logiciels de sauvegarde.

Grâce à sa fonctionnalité unique d’ « incrémental permanent » , la solution IBM TSM optimise de façon considérable le volume de sauvegarde quotidienne. Outre le gain d’espace de stockage cela diminue la fenêtre de sauvegarde et le transit sur les réseaux.
En cas de sinistres majeurs sur le système d’information, l’entreprise s’arrête !

Seul le plan de secours garantit la reprise de l’activité selon le niveau stratégique de chaque activité.

Le plan de secours ou de continuité, est un projet qui suit une démarche très précise. Il peut être audité par le contrôle interne, par une maison-mère, par des assureurs, par des régulateurs. C’est aussi une obligation légale ou réglementaire : SOX, LSF, Bâle II, ISO17799…
Le plan de secours doit garantir le rétablissement et la cohérence des données métiers selon une stratégie de reprise définie par les directions fonctionnelles de l’entreprise. Cette stratégie de reprise et le délai associé découlent de la phase « d’analyse d’impact sur activités ».
La direction informatique est un acteur majeur du plan de secours. Cependant un plan de secours ou de continuité dépasse largement le cadre technique de la direction informatique.

En effet, il s’agit d’un processus ITIL au service de la stratégie des métiers de l’entreprise. Il revient donc aux directions fonctionnelles de qualifier et d’anticiper leurs besoins de continuité, dont les locaux hébergeant les « utilisateurs clés » et leur repli sur un site alternatif.

Le plan de continuité intègre les plans non informatiques tels que le plan de la gestion de crise avec les plans de communication, le plan logistique, la gestion des procédures d’escalade ….
L’urbanisation consiste à concevoir la disposition des équipements au sein d’un data center. Elle a pour objectif d’optimiser l’efficience énergétique du centre informatique.

L’urbanisation améliore la disponibilité et allonge la durée de vie des matériels informatiques en supprimant les points chauds et optimisant les systèmes de climatisation. Une des conséquences directes est la réduction de la facture énergétique.
La sécurisation du data-center est l’une des préoccupations des responsables de data-center. De nombreux critères sont à prendre en compte pour sécuriser le data-center.

Notre maîtrise d’œuvre ou assistance à maitrise d’ouvrage vous assistera sur les notions suivantes :

  • Anticipation des besoins énergétiques ;
  • Contrôle d’accès au site, identification et vidéo-surveillance ;
  • Gestion des accès aux systèmes informatiques et protection des matériels ;
  • Détection et extinction incendie.