Le blog technique

Toutes les astuces #tech des collaborateurs de PI Services.

#openblogPI

Retrouvez les articles à la une

Orchestrator 2012 – Récupérer le JobID du runbook en cours

 

D’origine, il est possible via les common Published Data de récupérer dans n’importe quel runbook Orchestrator l’ID d’une activité ou d’un process :

clip_image002

On peut même récupérer l’ID de l’instance en cours d’exécution (Job ID) d’un runbook enfant lorsqu’il est appelé via l’activité Invoke Runbook :

clip_image004

Par contre, il n’y a rien de prévu pour récupérer l’ID de l’instance en cours d’exécution du runbook courant.

Ce Job ID du runbook courant peut cependant avoir son utilité, par exemple à des fins de logging et debug. Dans mon cas, il s’agissait de récupérer le nom de la personne ayant démarré le runbook via le portail self-service EUPSCO.

Il est donc malgré tout possible de récupérer cet ID, en intégrant la requête SQL suivante dans une activité Query Database :

SELECT POLICYINSTANCES.JobID
FROM  POLICYINSTANCES INNER JOIN
ACTIONSERVERS ON POLICYINSTANCES.ActionServer = ACTIONSERVERS.UniqueID
WHERE     (POLICYINSTANCES.ProcessID = <Activity process ID from "Initialize Data">) AND (ACTIONSERVERS.Computer = ‘<Runbook Server name from "Initialize Data">’) AND (POLICYINSTANCES.Status IS NULL)

clip_image006

Explication : cette requête interroge la base de données en lui fournissant l’Activity Process ID (qui est disponible nativement via les Common Published Data) afin de retrouver quel JobID contient cet Activity PRocess ID.

Il peut toutefois arriver que le Process ID soit présent plusieurs fois à l’identique dans la base, c’est pourquoi on filtre un peu plus en indiquant le nom du serveur qui exécute le runbook (Runbook Server Name dans les Common Published Data) et surtout en spécifiant le status « NULL », c’est-à-dire que l’on ne recherche que parmi les runbooks qui sont en cours d’exécution et qui n’ont donc pas encore un statut “success”, “warning” ou “failed”

Si tout s’est bien passé, le champ Full line as a string with fields separated by ‘ ;’ présent en sortie de l’activité Query Database devrait contenir le JobID de votre instance de runbook en cours d’exécution, à vous de le réutiliser à votre guise plus loin dans votre runbook !

Création d’un cluster SOFS sur Storage Spaces Direct avec nœuds du Cluster sous Windows Server 2016 Nano

 

Nous allons dans ce blog créer un cluster SOFS en utilisant  Storage Spaces Direct (S2D).

Les nœuds du cluster seront des Windows Server 2016 Nano.

Ce blog n’a pas pour vocation de configurer le cluster dans des best practices ( RDMA, réseau CSV, …), mais seulement de présenter l’intégration de S2D dans le cluster.

Pour rappel, Storage Spaces Direct permet de créer un stockage hautement disponible avec le stockage local du serveur. C’est une grande avancée dans le modèle Software Define Storage (SDS) qui va simplifier la gestion des serveurs Hyperconvergés et permettre l’utilisation de certains types de disques comme les disques SATA, les disques NVME, qu’il n’était pas possible d’utiliser précédemment dans les Storage Space Cluster sous Windows 2012.

image

 

Notre Cluster sera constitué de 4 nœuds : Nano1, Nano2, Nano3 et Nano4 avec chacun deux disques disponible.

 

Ajouts des serveurs Nano dans le domaine

 

Depuis un contrôleur de domaine, on provisionne nos 4 serveurs via la commande djoin /provision.

 

Exemple :

djoin.exe /provision /domain labo.local /machine NanoX /savefile C:\odjblobNanoX

 

image

 

Copier les fichiers respectifs générés sur les serveurs Nanos (via les partages administratifs par exemple).

 

Ensuite, on se connecte sur les 4 serveurs Nano depuis l’hyperviseur via PowerShell Direct (nécessite Windows 10 ou Windows Server 2016 pour cette méthode) afin de les intégrer dans le domaine via la commande djoin /requestodj.

 

Exemple :

djoin /requestodj /loadfile C:\odjblobNanoX /windowspath c:\windows /localos

 

Et on reboote les serveurs.

 

image

image

image

image

Désormais, les 4 serveurs Nanos sont dans le domaine.

 

Exemple pour Nano1

 

image

 

 

Maintenant, depuis une machine disposant des outils RSAT FailoverClusters 2K16 dans le domaine, on créé le cluster Cluster-Nano avec les nœuds Nano1, Nano2, Nano3 et Nano4.

New-Cluster -Name « Cluster-Nano » -Node Nano1, Nano2, Nano3, Nano4 –NoStorage

image

 

Depuis la MMC Failover Cluster, on peut désormais voir notre Cluster-Nano.

 

clip_image001

 

Activation du Storage Space Direct sur le cluster

 

Il faut activer au niveau du cluster la fonctionnalité Storage Space Direct via la commande suivante :

 

Get-cluster Cluster-Nano | Enable-ClusterStorageSpacesDirect

 

clip_image003

 

Les DAS de vos nœuds sont visibles dans Enclosures.

 

clip_image005

 

Création du Storage Pool et du Virtual Disk

 

Nous allons maintenant générer un Storage Pool depuis nos disques locaux des nœuds du cluster.

 

clip_image007

 

Spécifier un nom de Storage Pool

 

clip_image009

 

Sélectionner les disques devant participer au Storage Pool (ici sont affichés les 2 disques * 4 nœuds soit 8 disques)

 

clip_image011

clip_image013

clip_image015

Le Storage Pool est désormais créés.

 

clip_image017

 

Nous allons maintenant créer un Virtual Disk sur ce Storage Pool.

 

Clic droit sur le Pool et New Virtual Disk

clip_image019

clip_image021

 

Sélectionner votre Storage Pool précédemment créé.

 

clip_image023

Donner un nom à votre virtual Disk

 

clip_image025

clip_image027

Dans notre exemple, nous allons créer un miroir avec une taille de 12 GB

clip_image029

clip_image031

clip_image033

Cocher la case Create a volume when this wizard closes

clip_image035

 

Créer maintenant le volume. Cliquer sur Next

clip_image037

 

Sélectionner le disque disponible présent au sein du cluster

clip_image039

 

Allouer toute la capacité disponible au volume.

clip_image041

 

N’affecter pas de lettre de montage (inutile car il s’agira d’un volume CSV)

clip_image043

 

Donner un label et formater en ReFS

clip_image045

clip_image047

clip_image049

 

La ressource disque est maintenant disponible.

clip_image051

 

Ajouter ce disque en tant que CSV.

clip_image053

clip_image055

 

Désactiver l’intégrité sur le CSV

Set-FileIntegrity C:\ClusterStorage\Volume1 –Enable $false

 

clip_image057

 

 

Ajout du role SOFS dans le cluster

 

Si désormais vous souhaitez ajouter le rôle SOFS au cluster, vous aurez un message d’erreur.

 

clip_image059

 

Vous devez pour cela activer sur les nœuds du cluster la feature File-Services car actuellement celle-ci est désactivée.

clip_image061

 

 

Ajout de la feature sur les nœuds :

 

 

invoke-command -computer nano1 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

invoke-command -computer nano2 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

invoke-command -computer nano3 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

invoke-command -computer nano4 -scriptblock {Get-WindowsOptionalFeature -online -featureName File-Services | Enable-WindowsOptionalFeature -online}

 

clip_image063

 

Désormais, vous pouvez ajouter votre rôle SOFS.

 

clip_image065

clip_image067

clip_image069

clip_image071

clip_image073

 

Il ne vous reste plus qu’à ajouter des partages de fichiers de type SMB Share –Applications sur le CSV reposant sur du Storage Space Direct et vous pourrez héberger vos VMs.

clip_image075

 

 

(Après avoir bien entendu relié le tout via du SMB 3 en exploitant le MultiChannel et le RDMA. Sourire )

SCOM 2012 – Erreur lors de l’installation du MP Lync/SFB 2015

 

Le MP Skype For Business (Lync) 2015 est sorti récemment, mais il ne dispose d’aucune documentation.

Son installation coté SCOM reste des plus classique (import de deux fichiers .mp, activation du mode proxy sur tous les agents de l’infrastructure SFB), mais un problème peut survenir sur les serveurs Edge :

image

[Skype] An internal exception has occurred during discovery.

Ce qui correspond à l’événement suivant :

image

An exception occurred during discovery script, Exception : Could not connect to SQL server : [Exception=System.Data.SqlClient.SqlException (0x80131904): Cannot open database "xds" requested by the login. The login failed.

Login failed for user ‘NT AUTHORITY\NETWORK SERVICE’.

Cette erreur induit quelque peu en erreur car elle laisse à penser qu’il s’agit de permissions SQL à rajouter.

En réalité, pour résoudre ce problème, rajoutez simplement le compte Network Service aux groupes locaux RTC Component Local Group et RTC Local Administrators (vous pouvez d’ailleurs constater qu’il est normalement bien présent dans ces groupes sur les serveurs du réseau interne).

clip_image006

Enfin, redémarrez l’agent SCOM sur ces serveurs (service Microsoft Monitoring Agent).