Virtualization

À mesure que le nombre de tâches dans l’activité IT augmente, la question de l’allocation de ressources compétente apparaît. Aide partiellement à résoudre le problème de la virtualisation. Ce terme implique la création d’une infrastructure indépendante du matériel. La technologie elle-même présente de nombreux avantages. Tout d’abord, cela réduit les coûts. Il nécessite moins de serveurs matériels, ils consomment moins d’électricité, occupent moins d’espace.

Virtualization

Dans les petites et moyennes entreprises, on estime que cette technologie n’est demandée que pour les grandes entreprises. Mais ce n’est qu’un des mythes sur la virtualisation. Mais ils empêchent les gestionnaires et les spécialistes de profiter pleinement de la solution.

La virtualisation est identique à celle du cloud computing.

Ces deux concepts sont différents. Le cloud computing est ce qui devient possible grâce à cette même virtualisation. Le terme lui-même implique l’accès à certaines ressources informatiques courantes via Internet. Il peut s’agir de données ou de programmes. La virtualisation des serveurs peut être utilisée sans utiliser de technologies cloud. Ils peuvent également être utilisés plus tard pour étendre les capacités de la plate-forme.

La virtualisation n’est intéressante que pour les grandes entreprises.

Selon ce mythe, la solution est désavantageuse pour les petites et moyennes entreprises, qui devront déployer une solution complexe et coûteuse. En fait, quelle que soit la taille de l’entreprise, la virtualisation sera une solution rentable. Dans le cadre d’une petite entreprise, il est tout à fait possible que tous les services soient situés sur des machines virtuelles qui fonctionneront sur la même plate-forme matérielle. Vous pouvez donc éviter d’acheter des serveurs supplémentaires. Pour une petite entreprise, leur coût peut être impressionnant. En fait, deux ou plusieurs serveurs peuvent déjà être exposés à la virtualisation.

La virtualisation réduit considérablement les performances globales du système.

En pratique, il s’avère qu’il est rare que les processeurs modernes utilisent toutes les capacités matérielles pour 100%. La plupart du temps, le technicien fonctionne au ralenti, en mode veille moyenne. Ceci est particulièrement vrai pour les contrôleurs de domaine, les services de noms de domaine, le centre de l’application antivirus. Pour chacun de ces services, il est simplement irrationnel d’attribuer un service distinct. Il est donc tout à fait possible de transférer des services qui ne sont pas consommateurs de main-d’œuvre aux machines virtuelles, après avoir collecté un système hôte uniforme. Les retombées de performance ne se produiront pas dans ce cas. Mais il ne vaut pas la peine de prendre des décisions éclairées. Tout système a sa propre limite de vitesse possible, ce qui devrait être pris en compte lors de la virtualisation. À l’aide d’une machine virtuelle, il vaut la peine d’exécuter des tests de performance, et seulement sur cet hôte pour déployer un nouveau service. Il est nécessaire de tenir compte du fait que chaque machine virtuelle nécessite jusqu’à 20% de ressources supplémentaires de ce qu’elle nécessite pour sa propre maintenance. Et le système hôte lui-même a besoin de capacités gratuites.

La virtualisation nécessitera un équipement spécial.

Ce mythe est complété par effrayant, comme pour un spécialiste mal informé, selon le système de lames, les serveurs spécialisés, etc. Mais ce mythe est apparu, grâce à ces présentations et conférences tenues par des fabricants d’équipements spécialisés coûteux, par exemple HP ou IBM. De telles réunions démontrent l’équipement pour la construction de solutions virtuelles, les mêmes systèmes à lames. Cependant, le mythe est construit sur des thèses erronées. Il est pratique d’utiliser des systèmes coûteux et éprouvés conçus spécifiquement pour la virtualisation. Cependant, en fait, les services virtuels peuvent également être déployés sur le matériel régulier, même si cela satisfait les tâches en termes de puissance. Il existe toutefois certaines limites. Les programmes d’hyperviseurs modernes pour organiser un système hôte virtuel peuvent ne pas supporter certains matériels. Ainsi, les serveurs d’auto-assemblage ne peuvent pas toujours être une solution. Des problèmes peuvent survenir avec les contrôleurs RAID non standard et les cartes réseau. Mais même dans ce cas, il y a certaines astuces.Par exemple, RAID peut être construit par programme ou ajouter une carte réseau avec laquelle l’hyperviseur peut fonctionner. Même l’ancien serveur HP G4 peut, sans efforts supplémentaires, devenir le «domicile» de quelques machines virtuelles peu coûteuses. Vous pouvez donc économiser de l’espace sur le rack et ne pas dépenser d’argent pour l’achat d’un nouveau serveur.

Tous les logiciels de haute qualité pour la virtualisation sont chers et coûteux.

Ce n’est pas par hasard qu’ils disent que le fromage gratuit n’est que dans une caméra. Mais quelle est l’application des hyperviseurs? En fait, la photo ici est optimiste. Il existe de nombreux produits gratuits sur le marché tels que VMware ESXi, Citrix XenServer et Windows 2008 Standard (64 bits). Hyper-V Core résout les tâches requises. Toutes ces versions sont des versions juniors de puissantes solutions commerciales. Mais le moteur est utilisé exactement de la même manière que les anciennes homologues payées, la même idéologie du travail et le format des machines virtuelles. Les développeurs pensent qu’avec la croissance de l’entreprise et le développement de son infrastructure, il y aura une transition vers des solutions payantes qui permettront d’élargir les fonctionnalités de la plate-forme. Et cela peut se faire sans réinstaller les machines virtuelles. Si vous comparez les fonctionnalités des programmes payants et gratuits, il s’avère que vous pouvez utiliser librement les fonctions de base: hyperviseur, conversion, travail avec différents types d’entreposage, transfert de machines virtuelles entre les serveurs hôtes sans interrompre le travail.

Les systèmes de virtualisation sont difficiles à maintenir.

Aujourd’hui, pratiquement tous les systèmes de virtualisation modernes sont gérés par une application graphique. Les fans de réglage peuvent fonctionner avec la ligne de commande. L’administrateur n’a pas besoin d’accéder au serveur pour augmenter la quantité de RAM, l’espace disque, l’ajout d’un processeur. Aujourd’hui, tout cela peut se faire directement depuis votre lieu de travail, en gérant l’environnement virtuel du serveur de production dans la console.

Virtualization

La virtualisation n’est pas fiable.

Cette déclaration repose sur l’hypothèse qu’une défaillance dans le système hôte entraînera la fin de plusieurs machines virtuelles basées sur celle-ci. Mais ce risque est compensé par la vitesse de récupération du système s’il existe une sauvegarde de la machine virtuelle. En moyenne, le système est restauré en un tiers d’heure seulement. La récupération consiste à déplacer les fichiers de la machine virtuelle vers un autre serveur. Et les grandes solutions industrielles permettent généralement la réplication à la volée. Dans ce cas, même l’échec d’un serveur matériel n’arrêtera pas les services impliqués.

Les systèmes de virtualisation modernes, tels que Citrix XenServer et VMware, utilisent le principe du métal nu, c’est-à-dire qu’ils sont installés directement sur un métal nu.

Le noyau du système est Unix OS, extrêmement fiable et bien protégé contre les maladies virales. Un tel système est économique et optimisé dans son code, dépourvu de quelque chose de superflu. Donc, l’hyperviseur ne sera pas distrait par des tâches étrangères. La fiabilité du matériel peut être assurée par l’achat d’équipements fiables. Il peut être accordé compte tenu des économies globales sur les serveurs. Et cela aidera à oublier les problèmes matériels pendant une longue période. La décision d’utiliser la technologie de virtualisation doit être soigneusement vérifiée. Avec une planification minutieuse, le résultat promet d’être beaucoup moins problématique que dans le cas de plusieurs serveurs peu coûteux obsolètes dans une configuration traditionnelle.

Pour déployer un complexe de virtualisation, il est difficile de trouver un expert.

De bons spécialistes en informatique sur le marché sont en demande. Dans le cas des systèmes de virtualisation, la photo est la même. Je suis heureux que les principaux produits dans cette sphère de Microsoft, Citrix et VMware soient toujours bien documentés. Des réunions régulières de spécialistes avec des représentants d’entreprises et d’intégrateurs de systèmes se déroulent. Ils répondront aux questions les plus intéressantes. En tout cas, même un spécialiste inexpérimenté ne sera pas dans le vide. Bien sûr, vous ne devriez pas faire confiance à votre infrastructure à un étudiant, un administrateur de sous-travail.Il aura de l’expérience, mais qu’arrivera-t-il à l’entreprise? Aujourd’hui, il existe de plus en plus d’administrateurs système professionnels qui ont des compétences de base dans la construction de systèmes de virtualisation.

La virtualisation est une panacée pour tous les problèmes.

En ce qui concerne l’amélioration de la gestion, de l’efficacité et de l’efficacité énergétique, la virtualisation peut vraiment faire des miracles. Mais elle ne le fera pas elle-même. Certains spécialistes informatiques n’étudient pas le problème de tous les côtés, estimant que la transition vers des solutions virtuelles résoudra tous les problèmes. Mais ce n’est pas une pilule magique. S’il n’y a pas de gestion efficace et l’accent mis sur les avantages de la virtualisation, cela n’amènera pas l’effet désiré.

La virtualisation n’est pas adaptée aux applications haute performance qui fonctionnent avec les E / S.

Un tel mythe s’est développé depuis longtemps, lorsque les premiers hyperviseurs sont apparus. De tels complexes impliquaient irrationnellement toutes les ressources du serveur hôte. Mais depuis lors, la technologie de la virtualisation s’est bien avancée. Ainsi, récemment, Vmware a démontré la version de son ESX Server, capable sur l’un de ses hôtes d’effectuer plus de cent mille opérations par seconde d’E / S de données.

Pour utiliser des machines virtuelles, vous devez connaître Linux.

Dans la première version des hyperviseurs, dans le même Vmware, il a été suggéré de travailler avec la ligne de commande de la console Linux pour accéder à certains éléments de contrôle. Et même si aujourd’hui une telle variante de travail avec l’hôte est toujours disponible, la plupart des administrateurs ne l’utilisent plus. De nombreux hyperviseurs travaillent sur la base de Windows avec une interface graphique. Les hyperviseurs deviennent plus faciles et compréhensibles, aidant les spécialistes à maîtriser cette solution.

La virtualisation est une couche logicielle qui ralentit les applications.

Ce mythe n’est véridique qu’en partie. Certains fournisseurs de solutions tels que Vmware et Microsoft offrent leurs solutions exécutant Windows ou Linux. Mais le même Vmware ESX (i) est un hyperviseur fonctionnant sur un métal nu. Cela vous permet de maximiser l’utilisation des ressources du serveur sans une couche de logiciel sous la forme d’un système d’exploitation.

Vous ne pouvez pas virtualiser Microsoft Exchange et SQL Server

. Il y a plusieurs années, lorsque la norme était un processeur monocoque, ces services avec leurs charges de travail constantes n’étaient pas recommandés pour la virtualisation. Mais les plates-formes modernes fonctionnent avec 4 et 8 cœurs de plusieurs processeurs. Maintenant, même les services à forte intensité de main-d’œuvre peuvent être mis en œuvre avec succès dans un environnement virtuel. La clé de la répartition des charges est une bonne planification et une bonne compréhension de la technologie.

Virtualization

La virtualisation fonctionne uniquement avec les serveurs.

De nombreuses entreprises bénéficient de la virtualisation du bureau. Cela donne l’avantage de la gestion centralisée, une approche commune et améliore les options de récupération après sinistre. En utilisant une application client léger ou client, vous pouvez vous connecter à votre ordinateur de bureau n’importe où dans le monde. Les technologies d’imagerie de disque peuvent réduire les exigences de stockage de données, éliminant la duplication inutile de copies.

La virtualisation n’est pas sûre.

Tout logiciel peut être considéré comme dangereux. Cependant, en utilisant les meilleures pratiques pour les solutions réseau, les systèmes de stockage et les systèmes d’exploitation, vous pouvez créer un environnement vraiment sécurisé. La virtualisation vous permet de définir vos propres normes de sécurité, de configurer des stratégies et de mener des tests pour s’assurer qu’elles répondent aux exigences minimales.

Add a Comment