Administrator Guide
processus est terminé. La mise en cache à double écriture offre des performances moindres en matière de débit par rapport à l’écriture
différée, mais cette stratégie est plus sûre : le risque de perte de données est minimal en cas de coupure d’alimentation. Cependant, la
mise en cache à double écriture ne met pas en miroir les données d’écriture, car elles sont écrites sur le disque avant la confirmation de
l’exécution de la commande : la mise en miroir n’est donc pas requise. Vous pouvez définir les conditions dans lesquelles le contrôleur
bascule d’un type de mise en cache à l’autre. Pour plus d’informations, voir Modification des paramètres de mise en cache du système.
Dans les deux stratégies de mise en cache, basculement actif-actif des contrôleurs est activé.
Vous pouvez activer et désactiver la mise en cache à écriture différée pour chaque volume. Elle est activée par défaut. Étant donné que le
cache du contrôleur est optimisé par une technologie de supercondensateur, en cas de coupure soudaine de l’alimentation du système, les
données ne sont pas perdues. Pour la plupart des applications, il s’agit du paramètre préféré.
REMARQUE : La meilleure pratique pour une configuration tolérante aux pannes consiste à utiliser la mise en cache à
écriture différée.
Mode d’optimisation du cache
PRÉCAUTION : La modification du paramètre d’optimisation du cache pendant que les E/S sont actives peut entraîner la
corruption ou la perte des données. Avant de modifier ce paramètre, mettez en veille les E/S de tous les initiateurs.
Vous pouvez également modifier le mode d’optimisation.
• Standard. Ce mode de fonctionnement du cache du contrôleur est optimisé pour les E/S séquentielles et aléatoires et il s’agit du mode
d’optimisation de choix pour la plupart des charges de travail. Dans ce mode, la cohérence du cache est maintenue avec celui du
contrôleur partenaire. Ce mode offre des performances et une redondance élevées. Il s’agit du mode par défaut.
• No-mirror (Pas de mise en miroir). Dans ce mode, le cache du contrôleur fonctionne comme en mode Standard, à la différence près
que les métadonnées du cache ne sont pas mises en miroir sur le partenaire. Bien que cela permette d’améliorer le temps de réponse
des E/S d’écriture, cela nuit à la redondance. Si cette option est activée, l’utilisateur peut s’attendre à des performances d’écriture
plus élevées, mais il s’expose également à une possible perte de données en cas de panne du contrôleur.
Optimisation de la mise en cache de la lecture anticipée
REMARQUE :
Ne modifiez les paramètres de mise en cache de la lecture anticipée que si vous comprenez parfaitement
la façon dont le système d’exploitation hôte, l’application et l’adaptateur déplacent les données, afin de pouvoir ajuster
les paramètres en conséquence.
Vous pouvez optimiser un volume pour les lectures séquentielles ou les données de streaming en modifiant ses paramètres de mise en
cache de la lecture anticipée.
Vous pouvez modifier la quantité de données lues à l’avance. L’augmentation de la taille du cache de lecture anticipée peut
considérablement améliorer les performances des différents flux de lecture séquentielle.
• L’option Adaptive (Adaptatif) fonctionne bien pour la plupart des applications : elle active la lecture anticipée adaptative, qui permet
au contrôleur de calculer de manière dynamique la taille optimale de lecture anticipée pour la charge de travail en cours.
• L’option Stripe (Bande) définit la taille de la lecture anticipée sur une bande. Les contrôleurs traitent les groupes de disques NRAID et
RAID-1 en interne comme s’ils avaient une taille de bande de 512 Ko, même s’il n’y pas de chevauchement.
• Les options de taille spécifiques vous permettent de choisir une quantité de données pour tous les accès.
• L’option Disabled (Désactivé) désactive la mise en cache de la lecture anticipée. Elle est utile si l’hôte déclenche la lecture anticipée
pour les accès aléatoires. Cela peut se produire si l’hôte fractionne les E/S aléatoires en deux plus petites lectures, ce qui a pour effet
de déclencher la lecture anticipée.
À propos du Thin Provisioning
Le Thin Provisioning est une fonction de stockage virtuel qui permet à un administrateur système de surexploiter les ressources de
stockage physique. Cela permet au système hôte de fonctionner comme s’il disposait de plus d’espace de stockage disponible que la
quantité réellement allouée. Quand les ressources physiques se remplissent, l’administrateur peut augmenter le stockage physique en
ajoutant des groupes de disques à la demande.
La pagination est nécessaire pour éliminer le manque de flexibilité associé au mappage linéaire. Le mappage linéaire limite la possibilité
d’étendre facilement le stockage physique du volume avec Thin Provisioning. Le mappage paginé permet la disparité et la non-contiguïté
des ressources physiques, ce qui facilite grandement l’ajout de stockage à la volée.
Comparons par exemple les méthodes de création d’un volume de données Microsoft Exchange Server :
• En général, les administrateurs créent un volume côté stockage pour Exchange et mappent ce volume avec une LUN attribuée sur des
hôtes. Ils créent ensuite un volume Microsoft Windows pour cette LUN. Chaque volume a une taille fixe. Il existe des moyens
24
Mise en route