PI Services

Le blog des collaborateurs de PI Services

Orchestrator – Requête du dernier status de tout les runbooks

Cette requête SQL affiche le dernier status d’exécution de tout les runbooks d’une instance, triés par dernière date d’exécution.

--***REQUETES DES DERNIERS STATUS D'EXECUTION DE TOUT LES RUNBOOKS TRIES PAR DATE D'EXECUTION AVEC UN FILTRE SUR LE NOM DES RUNBOOKS ***/ --*** NB: Ajouter un critere sur RL.Name pour un job spécifique (ex: RL.Name = 'My_job') USE ORCHESTRATOR SELECT RL.Name as RunbookName, MAX(RI.CompletionTime)as dernieredate INTO TEMP_ALL_JOB_LAST_STATUS FROM [Orchestrator].[Microsoft.SystemCenter.Orchestrator.Runtime].RunbookInstances as RI INNER JOIN [Orchestrator].[Microsoft.SystemCenter.Orchestrator].Runbooks as RL ON RL.Id=RI.RunbookId WHERE ((RL.Name NOT LIKE '%OLD%') AND (RL.Name NOT LIKE '%TEST%')) GROUP BY RL.Name ORDER BY RL.Name; SELECT RunbookName, dernieredate as Derniere_date_Execution, RI.Status as Dernier_Status FROM [Orchestrator].[Microsoft.SystemCenter.Orchestrator.Runtime].RunbookInstances as RI INNER JOIN [Orchestrator].[Microsoft.SystemCenter.Orchestrator].Runbooks as RL ON RL.Id=RI.RunbookId INNER JOIN TEMP_ALL_JOB_LAST_STATUS ON TEMP_ALL_JOB_LAST_STATUS.RunbookName=RL.Name and dernieredate = RI.CompletionTime ORDER BY Derniere_date_Execution DESC GO DROP TABLE TEMP_ALL_JOB_LAST_STATUS

Script de rapport des erreur 500 sur IIS

 

Ce script génère un rapport texte des erreurs 500 en parsant les logs IIS d’une liste de serveurs. (Lien du script plus bas).

#SCRIPT REMONTANT LES OCCURENCES DES ERREURS '500' DANS LES LOGS IIS DE PLUSIEURS SERVEURS #INTERVALLE DE TEMPS PAR DEFAUT: Journée d'hier ($firstdate --> $date) #MODIFIER EN FONCTION, LE COMPTE UTILISE ($cred), LE CHEMIN DU RAPPORT ($rapport), LES NOMS DES SERVEURS ($FrontServers), LE CHEMIN DES LOGS ($Logpath) # #PAR DEFAUT L'INTERVALLE DE TEMPS EST CELUI DE LA JOURNEE DE LA VEILLE. $cred= Get-Credential -Credential "MYDOMAIN\" $rapport = "D:\Temp\error500.txt" $date = (get-date).Date $firstdate = (get-date).Date.AddDays(-1) $FrontServers=("SERVEUR1","SERVEUR2","SERVEUR3","SERVEUR4") $Logpath="c$\inetpub\logs\logfiles" $Header= "########### ERREURS 500 SUR LES FRONTAUX IIS ( $firstdate ---> $date ) ############## ######################################################################################################################" #suppression fichier rapport if (Test-Path $rapport) { Remove-Item $rapport } #ajout de l'entete au rapport $Header | Out-File -FilePath $rapport "" | Out-File -FilePath $rapport -Append "" | Out-File -FilePath $rapport -Append Function Get-Error500 ($Front,$cred) { #chaine 500 (!entourée de deux espaces!) $pattern=" 500 " New-PSDrive -Name "$Front`_drive" -Credential $cred -Root \\$Front\$Logpath -PSProvider FileSystem | Out-Null $logs= Get-ChildItem -Path "$Front`_drive:\*.log" -Recurse | Where-Object {$_.LastWriteTime -ge $firstdate -AND $_.LastWriteTime -lt $date} | Select-Object foreach ($log in $logs) { write-host -BackgroundColor White -ForegroundColor Blue "LOG: $log" "LOG: $log" | Out-File $rapport -Append "" | Out-File $rapport -Append get-content -Path $log | Select-String -Pattern $pattern | Select-Object -Property Line | Out-File $rapport -Append } Remove-PSDrive -Name "$Front`_drive" -Force } foreach ($Front in $FrontServers) { Write-Host -ForegroundColor Yellow "----SERVEUR $Front---- :" "----SERVEUR $Front---- :" | Out-File -Append $rapport Get-Error500 -Front $Front -cred $cred Write-Host "" Write-Host "***************************************************************************************************************" Write-Host "" "" | Out-File -Append $rapport "***************************************************************************************************************" | Out-File -Append $rapport "" | Out-File -Append $rapport }

 

Disponibilité de Nagios XI 5

 

Depuis début octobre, la version 5 de Nagios XI est disponible.

Fort d’une communauté historique issue de la version Core et d’une énorme base de plugins, cette version propose les évolutions suivantes:

- De nouveaux assistants pour le déploiement des objets et des configurations.

- Des nouveaux templates de supervision.

- Une meilleur interaction avec les systèmes environnants

- Une nouvelle API

- Une amélioration du support de l’internationalisation

- Un système de notification mail amélioré

 

Pour plus de détails:

https://www.nagios.com/xi5/

Provisionner des VHDs et VM Nano Server via le Tool NanoServerBuild

 

Dans ce blog, nous allons voir comment provisionner des VHDs / VM Nano Server à l’aide de l’outil NanoServerBuild.

 

Celui ci va nous permettre de générer un nombre souhaité de VHDs nano servers avec ajout des features et configuration des unattends.

 

Eventuellement, des VMs pourront être créées linké aux différents VHDs créés

(si l’outil est exécuté depuis un hyperviseur.)

 

Pré requis

 

Pour lancer l’outil, .NET 3.5 doit être installé sur votre ordinateur.

L’OS doit être en 64bits.

Positionner la politique d’exécution PowerShell sur Unrestricted:

Set-executionPolicy Unrestricted

 

 

 

Présentation de l’outil

 

Disponible à cette adresse:

https://onedrive.live.com/?cid=b370cc46ea3ab572&id=B370CC46EA3AB572%21137&authkey=%21ANkLug_PPC-kh-8

 

La version 1.0 ne sera disponible que lorsque la release Windows Server 2016 RTM sera sortie.

 

L’outil NanoServerBuild va vous permettre de provisionner simplement et rapidement des VHD(s) / VM Nano Server 2K16.

 

 

Lancer l’outil en tant que administrateur

 

image

 

 

 

L’interface se lance

 

image

 

 

 

 

Dans la section Path, vous devez sélectionner l’emplacement où se trouve les sources du Nano Server pour sa construction.

image

 

 

(Par défaut présent à la racine du média d’installation Windows Server 2016 TP2 et TP3)

 

image

 

 

 

 

La section VHDX vous permet de spécifier les paramètres de configuration pour votre VHD :

 

  • Son emplacement
  • Son nom
  • Sa taille
  • Son type Fixed/Dynamic
  • Son initialisation MBR/GPT

image

 

 

 

Vous pourrez retrouver ici les différents packages présent dans le Path Nano Server précédemment définie pouvant être intégré dans votre VHD Nano pour sa construction.

 

image

 

 

 

Cette fenêtre vous indiquera les éléments manquant pouvant empêcher la construction de votre VHD NanoServer.

 

image

 

 

 

Cette section va vous permettre de :

  • Choisir le nombre de VHDs Nano Server que vous souhaitez créer
  • Démonter le/les VHDs une fois les opérations effectuées
  • Créer des VMs linké à vos VHDs Nano Servers
  • Choisir la mémoire vive à affecter à vos VMs

 

image

 

 

 

La section XML vous permet de configurer et d’appliquer un fichier unattend à vos VMs.

 

image

 

 

 

 

La section copy in.. vous permet de copier le contenu d’un répertoire dans vos VHDs Nano Servers dans \windows\setup\script.

Ainsi vous pouvez par exemple provisionner des scripts qui s’appliqueront à vos Nano Servers en fonction des hostnames affectés.

 

 

image

 

 

 

 

Démonstration

 

Sélectionner le Path de votre répertoire Nano Server

 

image

 

 

Les Features disponibles s’affichent

 

image

 

 

 

 

 

Rappel sur les Features disponible

 

image

 

 

Nous allons sélectionner les packages nécessaire pour que nos VHDs Nano Server soient des VMs qui jouent le rôle de serveur SOFS hébergé au sein d’un cluster.

Sélectionner Guest, FailoverClusters et Storage.

 

 

image

 

 

 

Dans l’exemple ci-dessous, nos VHDs s’appelleront MonNano-XXX (XXX car plusieurs VHDs seront créés).

Ils seront créés à la racine du lecteur C avec une taille de 5GB. Les VHDs seront de type Dynamic et initialisé en MBR.

 

image

 

 

 

Nous allons créer 3 VHD qui ne seront plus montés dans l’explorateur à la fin des opérations.

Nous allons pour chacun de ses VHDs créés, les affecter à des VMs sur notre Hyperviseur avec une taille de 1024Mo pour la mémoire vive.

(La coche New-VM n’est disponible que si l’outil est exécuté sur un Hyperviseur).

 

image

 

 

 

Actuellement, aucune VM n’est présente sur notre Hyperviseur.

 

image

 

 

Sélectionner les valeurs désirés pour votre unattend

 

image

 

 

 

Attention si vous utilisez la rubrique XML :

  • Si vous ne définissez pas de mot de passe, le mot de passe par défaut sera "nano".
  • Si vous ne cochez pas la case ComputerName, chacun de vos VHDs auront pour ComputerName "nano".
  • Si vous cochez la case ComputerName, vos VHD auront pour nom la valeur que vous aurez saisie dans la rubrique VHDX + un incrément basé sur le nombre de VMs que vous allez créer.                          

Exemple : dans notre cas 3 VM seront créés avec le nom MonNano soit : MonNano-1, MonNano-2 et MonNano-3.

 

 

Le bouton aperçu vous permet d’avoir un aperçu du fichier unattend qui sera appliqué avec vos saisies.

 

image

 

 

Exemple:

 

image

 

 

Si vous souhaiter copier le contenu d’un répertoire dans \windows\setup\scripts de vos VHDs, sélectionner alors un répertoire.

 

image

 

 

 

Cliquer sur Go pour lancer les opérations.

 

image

 

 

 

Une fois les traitements finis, votre Hyperviseur disposera de vos VM Nano Servers.

 

image

 

 

 

 

Le contenu de vos VHDs avant leurs démarrages :

 

 

Présence du fichier unattend

 

 

 

clip_image001

 

 

 

 

 

Données copiées dans le répertoire \Windows\Setup\script

 

 

clip_image002

 

 

 

Aperçu des VMs démarrées.

 

 

clip_image002

 

 

clip_image004

 

 

clip_image006

 

 

Enjoy ! Punk

Accès impossible à un serveur de fichier WS 2012 R2 depuis une machine XP ou WS 2003

Symptômes

Les machines utilisant le protocole SMB1 (Windows XP, Windows Server 2003) pour accéder à un partage de fichier ne sont plus en mesure d’accéder à un partage hébergé sur un server Windows 2012 R2.

La mise en domaine de machines utilisant le protocole SMB1 (Windows XP, Windows Server 2003) échoue si le contrôleur de domaine utilisé est hébergé sous Windows Server 2012 R2.

Il est possible de récupérer le type de connexion SMB utilisé entre un client et un serveur avec la commande :

Get-SmbConnection

 

Cause

Par défaut, Windows Server 2012 R2 n’utilise pas le protocole SMB 1, bien que le driver le permettant est présent, il n’est pas chargé au démarrage.

En regardant le tableau suivant, on remarque que seuls les systèmes d’exploitation non-supportés utilisent le protocole SMB1 :

image

(http://blogs.technet.com/b/josebda/archive/2012/06/06/windows-server-2012-which-version-of-the-smb-protocol-smb-1-0-smb-2-0-smb-2-1-or-smb-3-0-you-are-using-on-your-file-server.aspx)

Résolution

Une clé de registre permet de réactiver l’utilisation du SMB 1.

Il faut modifier la valeur de la clé de registre DependOnService :

HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\LanmanServer

La valeur de la clé doit être modifiée de SamSS Srv2 à SamSS Srv.

La clé de registre permet de repositionner le protocole SMB 1 comme une dépendance du service “Server” :

image

SQL Server – Créer un plan de maintenance pour automatiser les sauvegardes

Contexte

SQL Server Management Studio permet la création graphique de différents plan de maintenance qui permettent d’automatiser les tâches d’administration sur les différentes bases de données.

Parmi ces plan de maintenance il existe des tâches préconfigurées de backup des bases. Ces tâches de sauvegardes peuvent se révéler utiles, particulièrement si la solution de backup mise en place n’assure pas la “sauvegarde applicative”.

Cet article présente la mise en place d’un plan de maintenance permettant la sauvegarde FULL d’une ou plusieurs bases de données ainsi qu’un plan de maintenance permettant la suppression des jeux de sauvegardes créés en fonction de la rétention mise en place.

Prérequis à l’utilisation des plan de maintenance

L’exécution des plans de maintenance est réalisée par le service “SQL Server Agent”, il convient de valider que le service est configuré pour démarrer automatiquement depuis la console “services.msc” :

image

Automatiser une sauvegarde FULL

Depuis SQL Management Studio, naviguer vers “Management\Maintenance Plan” puis faire clique-droit, “New Maintenance Plan” :

image

Nommer le plan de maintenance :

image

A l’aide de la “Toolbox” présente à gauche de l’écran, glisser-déposer la tâche “Backup Up Database Task” :

image

Voici les différentes options de configuration d’une tâche de backup FULL :

image

1. Choisir la ou les bases de données à sauvegarder,

2. Choisir “Database'”,

3. Ne pas cocher cette case à cocher, la rétention sera gérée par une tâche de nettoyage,

4. Choisir “Back up to Disk”,

5. Choisir “Create a backup file for every database”

6. Il est possible de créer un répertoire par jeu de sauvegarde,

7. Indiquer le chemin racine de stockage des sauvegardes,

8. Indiquer l’extension “BAK”.

Automatiser le nettoyage des anciens jeux de sauvegarde

A l’aide de la “Toolbox” présente à gauche de l’écran, glisser-déposer, sous la tâche précédemment créée, la tâche “Maintenance Cleanup Task” puis relier les tâches comme dans la capture suivante :

image

Double-cliquer sur la Cleanup Task créée pour la configurer :

image

1. Sélectionner “Backup Files”

2. Choisir l’option de suppression des fichier présent dans un répertoire et disposant d’une extension spécifique,

3. Indiquer le répertoire racine de stockage des fichiers de sauvegarde,

4. Indiquer l’extension utilisée par les fichier de sauvegarde (“BAK” dans le cas présent),

5. Eventuellement inclure les premiers niveaux de répertoires dans la recherche dans le cas où un sous-répertoire a été créé pour chaque base de donnée sauvegardée,

6. Cocher la case “Delete files based on the age of the file at task run time” et indiquer la rétention souhaitée.

Planifier l’exécution automatique du plan de maintenance

Depuis le sous-plan de maintenance créé, cliquer sur le calendrier :

image

Configurer les type de planification souhaitée :

image

1. Choisir la planification “Recurring” et cocher la case “Enabled”,

2. Choisir le type de fréquence souhaitée,

3. Sélectionner le type de fréquence journalière souhaitée.

Après avoir planifié le plan de maintenance, un nouveau Job apparait sous “SQL Server Agent”.

Migrer un partage témoin utilisé par un cluster Microsoft Cluster

Contexte

Migration de l’emplacement d’un FileShare Witness utilisé par un cluster.

Dans le cadre d’une configuration cluster Microsoft Cluster avec un nombre pair de noeuds, l’un des modèles utilisé afin d’assurer une majorité dans le quorum est le “Node and File Share Majority”. Cette méthode – peu couteuse en espace – permet d’utiliser un partage de fichier comme témoin.

Le partage stocke uniquement les information

Cet article présente comment migrer l’emplacement d’un partage  témoin utilisé par un cluster, il s’applique également à tout produit utilisant la technologie Microsoft Cluster.

Modification de la configuration du cluster

1. Afin de récupérer la configuration existante du cluster, il faut exécuter la commande PowerShell suivante :

Get-ClusterQuorum NOMDUCLUSTER

Actuellement, le type de quorum qui devrait s’afficher est “NodeAndFileShareMajority”.

2. Nous allons modifier la configuration du cluster de manière à le passer en “NodeMajority” à l’aide de la commande suivante :

Set-ClusterQuorum –cluster NOMDUCLUSTER –NodeMajority

La commande ci-dessus passe la configuration du cluster à “NodeMajority”, cette configuration est déconseillée lorsqu’un un nombre pair de noeuds est présent dans le cluster.

Valider depuis la console “Failover Cluster Manager Administrative Tool” que la nouvelle configuration a bien été prise en compte puis continuer.

3. La dernière étape va permettre de configurer le cluster en mode “NodeAndFileShareMajority” en indiquant le nouveau partage de fichier à utiliser :

Set-ClusterQuorum –cluster NOMDUCLUSTER –NodeAndFileShareMajority \\NOUVEAU PARTAGEDEFICHIER

Vérification

Valider depuis la console “Failover Cluster Manager Administrative Tool” que la nouvelle configuration a bien été prise en compte, il faut également valider au niveau du partage de fichier qu’une permission “NOMDUCLUSTER$” a bien été créé automatiquement :

image

SCOM – Alertes Failed to Access the Windows Event Log Veeam Vmware

 

Des alertes « Operations Manager Failed to Access the Windows Event Log” concernant des journaux d’événements Veeam Vmware (nWorks) et provenant de serveurs de management (MS) apparaissent :

clip_image002

Elles sont complétées par des événements 26604 récurrents (toutes les 12 minutes) dans les Event Log de ces serveurs :

clip_image004

The Windows Event Log Provider is still unable to open the Veeam VMware event log on computer 'SRV0'. The Provider has been unable to open the Veeam VMware event log for 1440 seconds.

Most recent error details: The specified channel could not be found. Check channel configuration.

One or more workflows were affected by this.

Workflow name: Veeam.Virt.Extensions.VMware.VMGUEST.CollectEvents

Veeam a publié une KB concernant ce problème : http://www.veeam.com/kb1496#/kb1496

Les causes indiquées dans cette dernière ne semblent pas correspondre au contexte rencontré dans mon cas (les alertes apparaissaient sur deux nouveau MS physiques fraichement ajoutés), mais la solution proposée fonctionne malgré tout :

Dans la console Veeam, exécuter une reconstruction de la topologie Rebuild Full Topology :

clip_image006

Rien n’indiquera que la reconstruction est terminée, mais cela peut prendre plusieurs dizaines de minutes voire plusieurs heures selon la taille de votre infrastructure, mais lorsque cela sera bon les événements 26004 ne doivent plus revenir dans l’Event Log.

Il restera enfin à réinitialiser manuellement les moniteurs en erreur :

clip_image008

Orchestrator 2012 – Récupérer le JobID du runbook en cours

 

D’origine, il est possible via les common Published Data de récupérer dans n’importe quel runbook Orchestrator l’ID d’une activité ou d’un process :

clip_image002

On peut même récupérer l’ID de l’instance en cours d’exécution (Job ID) d’un runbook enfant lorsqu’il est appelé via l’activité Invoke Runbook :

clip_image004

Par contre, il n’y a rien de prévu pour récupérer l’ID de l’instance en cours d’exécution du runbook courant.

Ce Job ID du runbook courant peut cependant avoir son utilité, par exemple à des fins de logging et debug. Dans mon cas, il s’agissait de récupérer le nom de la personne ayant démarré le runbook via le portail self-service EUPSCO.

Il est donc malgré tout possible de récupérer cet ID, en intégrant la requête SQL suivante dans une activité Query Database :

SELECT POLICYINSTANCES.JobID
FROM  POLICYINSTANCES INNER JOIN
ACTIONSERVERS ON POLICYINSTANCES.ActionServer = ACTIONSERVERS.UniqueID
WHERE     (POLICYINSTANCES.ProcessID = <Activity process ID from "Initialize Data">) AND (ACTIONSERVERS.Computer = '<Runbook Server name from "Initialize Data">') AND (POLICYINSTANCES.Status IS NULL)

clip_image006

Explication : cette requête interroge la base de données en lui fournissant l’Activity Process ID (qui est disponible nativement via les Common Published Data) afin de retrouver quel JobID contient cet Activity PRocess ID.

Il peut toutefois arriver que le Process ID soit présent plusieurs fois à l’identique dans la base, c’est pourquoi on filtre un peu plus en indiquant le nom du serveur qui exécute le runbook (Runbook Server Name dans les Common Published Data) et surtout en spécifiant le status « NULL », c’est-à-dire que l’on ne recherche que parmi les runbooks qui sont en cours d’exécution et qui n’ont donc pas encore un statut “success”, “warning” ou “failed”

Si tout s’est bien passé, le champ Full line as a string with fields separated by ‘ ;’ présent en sortie de l’activité Query Database devrait contenir le JobID de votre instance de runbook en cours d’exécution, à vous de le réutiliser à votre guise plus loin dans votre runbook !

Création d’un cluster SOFS sur Storage Spaces Direct avec nœuds du Cluster sous Windows Server 2016 Nano

 

Nous allons dans ce blog créer un cluster SOFS en utilisant  Storage Spaces Direct (S2D).

Les nœuds du cluster seront des Windows Server 2016 Nano.

Ce blog n’a pas pour vocation de configurer le cluster dans des best practices ( RDMA, réseau CSV, …), mais seulement de présenter l’intégration de S2D dans le cluster.

Pour rappel, Storage Spaces Direct permet de créer un stockage hautement disponible avec le stockage local du serveur. C’est une grande avancée dans le modèle Software Define Storage (SDS) qui va simplifier la gestion des serveurs Hyperconvergés et permettre l’utilisation de certains types de disques comme les disques SATA, les disques NVME, qu’il n’était pas possible d’utiliser précédemment dans les Storage Space Cluster sous Windows 2012.

image

 

Notre Cluster sera constitué de 4 nœuds : Nano1, Nano2, Nano3 et Nano4 avec chacun deux disques disponible.

 

Ajouts des serveurs Nano dans le domaine

 

Depuis un contrôleur de domaine, on provisionne nos 4 serveurs via la commande djoin /provision.

 

Exemple :

djoin.exe /provision /domain labo.local /machine NanoX /savefile C:\odjblobNanoX

 

image

 

Copier les fichiers respectifs générés sur les serveurs Nanos (via les partages administratifs par exemple).

 

Ensuite, on se connecte sur les 4 serveurs Nano depuis l’hyperviseur via PowerShell Direct (nécessite Windows 10 ou Windows Server 2016 pour cette méthode) afin de les intégrer dans le domaine via la commande djoin /requestodj.

 

Exemple :

djoin /requestodj /loadfile C:\odjblobNanoX /windowspath c:\windows /localos

 

Et on reboote les serveurs.

 

image

image

image

image

Désormais, les 4 serveurs Nanos sont dans le domaine.

 

Exemple pour Nano1

 

image

 

 

Maintenant, depuis une machine disposant des outils RSAT FailoverClusters 2K16 dans le domaine, on créé le cluster Cluster-Nano avec les nœuds Nano1, Nano2, Nano3 et Nano4.

New-Cluster -Name "Cluster-Nano" -Node Nano1, Nano2, Nano3, Nano4 –NoStorage

image

 

Depuis la MMC Failover Cluster, on peut désormais voir notre Cluster-Nano.

 

clip_image001

 

Activation du Storage Space Direct sur le cluster

 

Il faut activer au niveau du cluster la fonctionnalité Storage Space Direct via la commande suivante :

 

Get-cluster Cluster-Nano | Enable-ClusterStorageSpacesDirect

 

clip_image003

 

Les DAS de vos nœuds sont visibles dans Enclosures.

 

clip_image005

 

Création du Storage Pool et du Virtual Disk

 

Nous allons maintenant générer un Storage Pool depuis nos disques locaux des nœuds du cluster.

 

clip_image007

 

Spécifier un nom de Storage Pool

 

clip_image009

 

Sélectionner les disques devant participer au Storage Pool (ici sont affichés les 2 disques * 4 nœuds soit 8 disques)

 

clip_image011

clip_image013

clip_image015

Le Storage Pool est désormais créés.

 

clip_image017

 

Nous allons maintenant créer un Virtual Disk sur ce Storage Pool.

 

Clic droit sur le Pool et New Virtual Disk

clip_image019

clip_image021

 

Sélectionner votre Storage Pool précédemment créé.

 

clip_image023

Donner un nom à votre virtual Disk

 

clip_image025

clip_image027

Dans notre exemple, nous allons créer un miroir avec une taille de 12 GB

clip_image029

clip_image031

clip_image033

Cocher la case Create a volume when this wizard closes

clip_image035

 

Créer maintenant le volume. Cliquer sur Next

clip_image037

 

Sélectionner le disque disponible présent au sein du cluster

clip_image039

 

Allouer toute la capacité disponible au volume.

clip_image041

 

N’affecter pas de lettre de montage (inutile car il s’agira d’un volume CSV)

clip_image043

 

Donner un label et formater en ReFS

clip_image045

clip_image047

clip_image049

 

La ressource disque est maintenant disponible.

clip_image051

 

Ajouter ce disque en tant que CSV.

clip_image053

clip_image055

 

Désactiver l’intégrité sur le CSV

Set-FileIntegrity C:\ClusterStorage\Volume1 –Enable $false

 

clip_image057

 

 

Ajout du role SOFS dans le cluster

 

Si désormais vous souhaitez ajouter le rôle SOFS au cluster, vous aurez un message d’erreur.

 

clip_image059

 

Vous devez pour cela activer sur les nœuds du cluster la feature File-Services car actuellement celle-ci est désactivée.

clip_image061

 

 

Ajout de la feature sur les nœuds :

 

 

invoke-command -computer nano1 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

invoke-command -computer nano2 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

invoke-command -computer nano3 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

invoke-command -computer nano4 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

 

clip_image063

 

Désormais, vous pouvez ajouter votre rôle SOFS.

 

clip_image065

clip_image067

clip_image069

clip_image071

clip_image073

 

Il ne vous reste plus qu’à ajouter des partages de fichiers de type SMB Share –Applications sur le CSV reposant sur du Storage Space Direct et vous pourrez héberger vos VMs.

clip_image075

 

 

(Après avoir bien entendu relié le tout via du SMB 3 en exploitant le MultiChannel et le RDMA. Sourire )