Quantcast
Channel: Supervision – memo-linux.com
Viewing all 37 articles
Browse latest View live

Centréon : identifier le numéro id des volumes disques pour superviser les différentes partitions

$
0
0

Un mémo sur comment identifier le numéro id des volumes disques d’un serveur et l’appliquer au service de supervision sous Centréon via la commande snmpwalk.

Supervision des volumes disques sous Centréon

Par défaut, sous Centréon il existe différents modèles de services pour superviser des volumes disques :
snmp-disk

Chaque modèle de service dépend de la commande de vérification : check_centreon_remote_storage
check_disk

La commande de vérification check_centreon_remote_storage se présente de la façon suivante :

$USER1$/check_centreon_snmp_remote_storage -H $HOSTADDRESS$ -n -d $ARG1$ -w $ARG2$ -c $ARG3$ -v $_HOSTSNMPVERSION$ -C $_HOSTSNMPCOMMUNITY$

Les valeurs qui identidient le volumes disque sont :

  • -n : pour identifier la partition, exemple : /home
  • -d : pour identifier le numéro id de la partition correspondant à -n

Cependant, suivant les serveurs, les valeurs -n et -d ne correspondent toujours pas ! Et, dans Centréon on se retrouve avec des erreurs de type : Unknown -d: number expected… try another disk – number

Ma solution consiste à modifier la commande check_centreon_remote_storage pour n’utiliser que l’option -d et lui associer le bon numéro d’id correspondant à la valeur hrStorage de la commande snmpwalk.

Identifier le numéro id des volumes disque d’un serveur avec snmpwalk

A partir du serveur Centréon :

snmpwalk IP hrStorage -v2c -c public | grep STRING

Exemple de sortie :

HOST-RESOURCES-MIB::hrStorageDescr.1 = STRING: Physical memory
HOST-RESOURCES-MIB::hrStorageDescr.3 = STRING: Virtual memory
HOST-RESOURCES-MIB::hrStorageDescr.6 = STRING: Memory buffers
HOST-RESOURCES-MIB::hrStorageDescr.7 = STRING: Cached memory
HOST-RESOURCES-MIB::hrStorageDescr.8 = STRING: Shared memory
HOST-RESOURCES-MIB::hrStorageDescr.10 = STRING: Swap space
HOST-RESOURCES-MIB::hrStorageDescr.31 = STRING: /
HOST-RESOURCES-MIB::hrStorageDescr.39 = STRING: /run
HOST-RESOURCES-MIB::hrStorageDescr.41 = STRING: /dev/shm
HOST-RESOURCES-MIB::hrStorageDescr.42 = STRING: /run/lock
HOST-RESOURCES-MIB::hrStorageDescr.43 = STRING: /sys/fs/cgroup
HOST-RESOURCES-MIB::hrStorageDescr.61 = STRING: /var/lib/vz
HOST-RESOURCES-MIB::hrStorageDescr.63 = STRING: /run/lxcfs/controllers
HOST-RESOURCES-MIB::hrStorageDescr.76 = STRING: /run/cgmanager/fs

Si je souhaite superviser l’espace disponible de la partition /var/lib/vz, j’indiquerais dans ma commande l’id numéro 61. Exemple en ligne de commande :

cd /usr/lib/nagios/plugins
./check_centreon_snmp_remote_storage -H IP -d 61

Sortie de la commande :

Disk OK - /var/lib/vz TOTAL: 10946.315GB USED: 0.031GB (0%) FREE: 10946.284GB (100%)|size=11753516310528B used=32890880B;10578164679475;11165840495001;0;11753516310528

Mise en place de la solution dans Centréon

Dupliquer la commande de vérification check_centreon_remote_storage avant d’apporter les modifications. Aller dans le Menu Configuration puis Commandes :
Duplicat-commande

Sélectionner la nouvelle commande qui se nomme check_centreon_remote_storage_1 et modifier comme suit :

$USER1$/check_centreon_snmp_remote_storage -H $HOSTADDRESS$ -d $ARG1$ -w $ARG2$ -c $ARG3$ -v $_HOSTSNMPVERSION$ -C $_HOSTSNMPCOMMUNITY$

Pour faire simple, j’ai supprimé l’option -n.

Modifier le service sur l’hôte en changeant le modèle de service par « Generic-service » et ajouter la commande de vérification check_centreon_remote_storage_pve avec ses valeurs associées :
check_dell_disk_usage

Pour la prise en compte des modifications Par Centréon, ne pas oublier d’appliquer la nouvelle configuration en rechargeant le collecteur :
centreon-restart-poller

Après quelques secondes, la partiton /var/lib/vz de mon serveur Proxmox est supervisée par Centréon :
centreon_pve_check_disqk_dell


résoudre l’erreur : OID not increasing: IP-FORWARD-MIB::ipCidrRouteDest

$
0
0

Un petit mémo pour résoudre un problème sur mon serveur NFS avec la commande snmpwalk.

Un test de requêtes snmp avec la commande snmpwalk :

snmpwalk -c public -v2c IP

La sortie de la commande dans mon cas :

Error: OID not increasing: IP-FORWARD-MIB::ipCidrRouteDest.192.168.0.0.255.255.255.0.0.0.0.0.0 = IP-FORWARD-MIB::ipCidrRouteDest.192.168.0.0.255.255.255.0.0.0.0.0.0

A savoir dans mon cas, j’ai configurer plusieurs interfaces dont des agrégations de liens :

ip -4 -o addr show
1: lo inet 127.0.0.1/8 scope host lo\       valid_lft forever preferred_lft forever
2: eth0 inet 10.8.8.210/21 brd 10.8.15.255 scope global eth0 valid_lft forever preferred_lft forever
4: eth3 inet 192.168.0.13/24 brd 192.168.0.255 scope global eth3 valid_lft forever preferred_lft forever
6: bond0 inet 192.168.0.12/24 brd 192.168.0.255 scope global bond0 valid_lft forever preferred_lft forever

Et une seule passerelle pour le réseau 10.8.8.0/21

error : OID not increasing: IP-FORWARD-MIB::ipCidrRouteDest

Cette erreur signifie qu’il y a une duplication d’une route. Pour résoudre ce problème, vérifier d’abord les routes existentes :

ip route show
default via 10.8.8.1 dev eth0
10.8.8.0/21 dev eth0  proto kernel  scope link  src 10.8.8.210
192.168.0.0/24 dev eth3  proto kernel  scope link  src 192.168.0.13
192.168.0.0/24 dev bond0  proto kernel  scope link  src 192.168.0.12

Dans mon cas, pour le réseau 192.168.0.0/24 j’ai une route de trop.

Je supprime une route en doublon :

ip route del 192.168.0.0/24 dev eth3 proto kernel scope link src 192.168.0.13

Je vérifie de nouveau les routes :

ip route show
default via 10.8.8.1 dev eth0
10.8.8.0/21 dev eth0  proto kernel  scope link  src 10.8.8.210
192.168.0.0/24 dev bond0  proto kernel  scope link  src 192.168.0.12

Pour finir je refais un test avec la commande snmpwalk :

snmpwalk -c public -v2c IP

Et dans mon cas, je n’ai plus d’erreur !

ressource : support.f5.com

Centreon CES : ajout d’un collecteur satellite (Poller)

$
0
0

Une des fonctionnalités très intéressante et assez facile à mettre en place avec Centréon est la création une architecture de supervision distribuée.
Dans le cas d’une supervision multi-sites, l’architecture de supervision distribuée prend tous son sens car cela permet de réduire les latences et les faux négatifs. De plus, le fait de faire travailler d’autre collecteurs, cela soulage le collecteur central. Pour ce faire, dans chaque site distant, un collecteur satellite sera installé et configuré à superviser tous les éléments actifs du site (Serveur, Commutateur, routeur, etc…) et communiquera les états des services au collecteur central.

Petit schéma de principe d’une architecture distribuée de supervision avec Centréon :

schema-architecture-distribue-centreon-central-poller

Installation du Collecteur Satellite

Par la suite, j’utiliserai le mot anglais Poller pour désigner le collecteur satellite.

  • L’installation d’un Poller est identique à celle d’un serveur Centréon, sauf à l’étape : Quel type de serveur voulez-vous installer ? Il faut choisir Poller Server :
  • poller-ces-01

  • Une fois l’installation terminée, activer le mot de passe du compte centreon sur le Poller :
passwd centreon

Configuration du Collecteur Central

  • Passer sur l’utilisateur Centréon :
su - centreon
  • Création de la clé SSH à partir du serveur Central :
  • ssh-keygen
  • Copie de la clé vers le Poller :
  • ssh-copy-id -i ~/.ssh/id_rsa.pub centreon@IP_poller
  • Test de connexion vers le Poller :
  • ssh IP-Poller

    Si utilisation de plugins particuliers sur le central, comme Centreon-plugins ne pas oublier de les copier sur le Poller :

    scp -r /usr/lib/nagios/plugins/centreon-plugins IP-Poller:/usr/lib/nagios/plugins/

    Ajout du Poller dans le Central

    • Menu Configuration, Collecteurs puis cliquer sur Ajouter :
    • ces-add-poller-01

    • Donner un nom au Poller, renseigner son adresse IP puis cliquer sur Sauvegarder:
    • ces-add-poller-02

    • Le poller est ajouté mais pas encore fonctionnel :
    • ces-add-poller-03

    • Menu Configuration, Collecteurs puis Configuration de Centreon Broker :
    • ces-add-poller-05

    • Cliquer sur Ajouter avec l’assistant :
    • ces-add-poller-06

    • Une nouvelle fenêtre s’ouvre, cocher Collecteur uniquement puis clique sur Suivant :
    • ces-add-poller-07

    • Saisir un nom pour ce module (ex : poller-demo), sélectionner le collecteur correspondant au poller ajouté, renseigner l’adresse IP du Central et cliquer sur Terminer :
    • ces-add-poller-08

    • L’ajout du module est terminée, cliquer sur Revenir au menu de Centreon Broker :
    • ces-add-poller-09

    • Le nouveau module est ajouté mais pas activé. Cliquer sur le nom du module pour l’éditer :
    • ces-add-poller-10

    • Dans l’onglet Générale, activer le statut et les Statistiques puis aller dans l’onglet Output :
    • ces-add-poller-11

    • Dans l’onglet Logger, modifier le nom du journal d’évènements et cliquer sur Sauvegarder :
    • ces-add-poller-12

    • Le statut du module qui a été ajouté puis modifié est active :
    • ces-add-poller-13

    • L’ajout du module n’est pas suffisant pour le bon fonctionnement du Poller. Il faut encore modifier son moteur de collecte. Menu Configuration, collecteurs puis Configuration du moteur de collecte :
    • ces-add-poller-14

    • Cliquer sur le nom du Poller pour l’éditer :
    • ces-add-poller-15

    • Dans l’onglet Fichiers, supprimer le répertoire temporaire :
    • ces-add-poller-16

    • Dans l’onglet
    • Données, ajouter le module broker créé précédemment en cliquant sur Ajouter une nouvelle entrée :
      ces-add-poller-17

    • La directive du module broker :
    • ces-add-poller-18

    • Dans l’onglet Administrateur, supprimer l’interpréteur Perl intégré puis cliquer sur Sauvegarder :
    • ces-add-poller-19

    • Ensuite, création d’un Host pour le poller. Menu configuration, Hôtes puis Ajouter :
    • ces-add-poller-20

    • Renseigner un nom d’hôtes, son alias, son adresse IP, sélectionner le Poller qui a été ajouté, sélectionner un modèle d’hôte et cocher Oui pour créer aussi les services liés au modèle et cliquer sur Sauvegarder :
    • ces-add-poller-21

    • Appliquer la nouvelle configuration. Menu Configuration, Collecteurs, sélectionneur le Poller et cliquer sur Appliquer la configuration :
    • ces-add-poller-22

    • Cocher les 4 premières cases, sélectionner Redémarrer pour la méthode puis Exporter :
    • ces-add-poller-23

    • Suite à l’application de la nouvelle configuration, le nouveau Poller est fonctionnel :
    • ces-add-poller-25

    Il ne reste plus qu’à ajouter les nouveaux hôtes du site ou ce trouve ce poller…

    Ressources

    Documentation de Centréon : https://documentation-fr.centreon.com/docs/centreon/fr/2.5.x/architecture/03b.html
    L’atelier de Kermith : http://www.sugarbug.web4me.fr/atelier/architectures/ces3x_distribue/configuration_ces33/

    Centreon : supprimer Host fantôme

    $
    0
    0

    Suite à mon article sur la mise en place d’une architecture de supervision distribuée avec Centréon, impossible de me débarrasser du poller de démonstration malgré qu’il soit supprimé et les collecteurs redémarrer.

    A l’époque ou j’avais mis en place ma première plateforme de supervision basée sur le couple Nagios/Centréon, j’avais déjà rencontré un problème similaire avec des hosts en doublons.

    En cherchant sur la toile une solution, je n’ai rien trouvé à part d’autres personnes dans le même cas que moi : https://forum.centreon.com/forum/centreon-ui/centreon-web-interface/140374-centreon-2-7-0-suppression-de-poller

    Supprimer définitivement un host récalcitrant dans Centréon

    Me retrouvant bloqué, j’ai retroussé mes manches et je suis entrée directement dans la base de données centreon_storage et supprimer manuellement le host.
    Pour simplifier l’opération, il est possible d’utiliser un outil d’administration de base de donnée comme Adminer.

    Une fois connecter à la base de données centreon_storage, sélectionner la table hosts. Ensuite, sélectionner le host à supprimer :

    centreon-storage-del-host

    La suppression est immédiatement prise en compte par le collecteur Centréon central.

    Centréon : Ajouter un pack d’icônes

    $
    0
    0

    Pour rendre encore plus riche l’interface web de Centréon, un pack d’icônes est disponible sur le site d’Icinga, qui se nomme F*Nagios icon pack.

    centreon-icone-services-hotes

    L’ajout du pack d’icônes pour Centréon sera importé automatiquement via la méthode de synchronisation automatique des médias.

    Ajouter un pack d’icônes pour Centréon

    • Se connecter au serveur Centréon via ssh :
    ssh user@domaine.tld
  • Téléchargement du pack d’îcones pour Centéon :
  • cd /tmp
    wget https://exchange.icinga.org/exchange/F%2ANagios+icon+pack+%28Status+Map+and+Host+View+icons%29/files/21/FNagios.tar.gz
  • Décompression de l’archive :
  • tar xzf FNagios.tar.gz
  • Déplacement des icones dans l’emplacement prévu à cet effet :
  • mv hardware /usr/share/centreon/www/img/media/
    mv other /usr/share/centreon/www/img/media/
    mv vendors /usr/share/centreon/www/img/media/
    
  • Donner les droites à l’utilisateur centréon pour accès aux icônes :
  • chown -R centreon: /usr/share/centreon/www/img/media/
  • Synchroniser les répertoires d’icônes dans l’interface web de Centréon :
  • centreon-icone01

  • 742 icônes synchronisés avec Centréon :
  • centreon-icone02

  • Ajouter des icônes aux différents modèles d’hôtes et de services :
  • centreon-icone05

  • Icônes d’hôtes :
    centreon-icone04
  • via SugarBug

    Centreon : superviser les VM d’un cluster Proxmox avec pve-monitor

    $
    0
    0

    Le but de l’article est de proposer une supervision avec Centréon des machines virtuelles KVM sous Proxmox.

    pve-qemu

    Le plugin pve-monitor

    pve-monitor est un plugin Nagios de supervision de clusters Proxmox. Il permet une supervision des services via l’API de PVE afin d’obtenir une vision claire de l’état du cluster.

    Actuellement, le plugin est capable de superviser les éléments suivants:

    • Machine virtuelles KVM,
    • Conteneurs LXC et OpenVZ
    • Espaces de stockage local et distant
    • hyperviseurs

    Dans mon cas, je souhaite seulement superviser mes machines virtuelles KVM, car les hyperviseurs et le stockage sont déjà superviser par Centréon.

    L’installation de pve-monitor est réalisée dans le répertoire suivant : /home/centreon/

    Installation des prés-requis sur le serveur Centréon pour pve-monitor

    • Centos 6.8 :
    yum install perl-CPAN perl-JSON perl-libwww-perl perl-IO-Socket-SSL perl-YAML
  • Debian 8 :
  • apt install git libjson-perl libwww-perl libio-socket-ssl-perl libswitch-perl

    Installer le module Perl proxmox-ve-api-perl

    • Centos 6.8 :
    cpan Net::Proxmox::VE

    Debian 8 :

    cpan install Net::Proxmox::VE
    

    Installation de pve-monitor

    • Clonage :
    git clone https://github.com/dpiquet/pve-monitor.git
    
  • Copier le plugin dans /usr/lib/nagios/plugins/ :
  • cd pve-monitor
    cp pve-monitor.pl /usr/lib/nagios/plugins/
    

    Configuration de pve-monitor

    • Configuration du fichier pve-monitor.conf (à faire pour tous les noeuds Proxmox sauf ceux qui sont en cluster) :
    nano pve-monitor.conf
    ##configuration du nœud proxmox
    node proxmox-01 {
        address 10.8.8.216
        port 8006 # Optional, default is 8006
        monitor_account root
        monitor_password SuperMDPd3laMort
        realm pam # Optional, default is pam
        mem 80 90 # optional, not monitored if not defined
        cpu 80 95 # optional
        disk 80 90 # optional
    }
    ##Configuration des VMs, attention faut indiquer le nom de la VM et non son numéro d'ID ! et autant de fois qu'il y a de VM
    qemu centreon {
        mem 80 90
        cpu 80 95
        disk 80 90
    }
    qemu fog {
        mem 80 90
        cpu 80 95
        disk 80 90
    }
    
    ##Configuration du stockage
    storage deb-nfs-01 {
        disk 80 90
        node proxmox-01
    }
    
  • Test de la supervision :
    • Supervision des VMs :
    /usr/lib/nagios/plugins/pve-monitor.pl --conf pve-monitor.conf --qemu
    centreon (proxmox-01) OK : cpu OK (0.23%), mem OK (33.28%), disk OK (0.00%) uptime 233584
    fog (pve-02) OK : cpu OK (1.24%), mem WARNING (81.25%), disk OK (0.00%) uptime 20350
    

    Ici la VM fog est gérée par le 2ème nœud Proxmox.

  • Supervision du stockage :
  • /usr/lib/nagios/plugins/pve-monitor.pl --conf pve-monitor.conf --storages
    deb-nfs-01 (proxmox-01) OK : disk 51.26%

    Stockage commun aux deux nœuds Proxmox.

    Configuration de pve-monitor dans Centréon

    Exemple de configuration simple du plugin pve-monitor dans Centréon :

    • Menu Configuration -> Commandes -> Ajouter :
    • pve-10

    • Création d’une nouvelle commande :
    • pve-11

    • Créer un service associé cette commande lié au cluster Proxmox :
    • pve-12

    • Appliquer la nouvelle configuration de Centréon :
    • centreon-collecteur-02

    • Après quelques secondes :
    • pve-qemu-centreon

    Centréon : superviser un cluster Ceph

    $
    0
    0

    Ce mémo décrit la mise en place d’une supervision basée sur Centréon pour superviser un cluster Ceph haute disponibilité sous Proxmox.

    Pour ce faire, j’ai configuré le plugin check-ceph-dash sur Centréon et installé ceph-dash sur chaque nœud qui compose mon cluster Ceph.

    Mon choix s’est porté sur cette solution car ce couple de scripts m’apporte une grande souplesse pour la mise en service et me permet d’avoir un tableau de bord sur chacun de mes nœuds en plus de ma plateforme de supervision.

    Installation de ceph-dash sur les nœuds du cluster Ceph

    • Cloner le script sur chaque nœud :
    cd opt/
    git clone https://github.com/Crapworks/ceph-dash.git
  • Tester le script :
    cd ceph-dash/
    ./ceph-dash.py
    
    • Exemple de résultat :
    OK: ceph cluster operates with no problems|bytes_total=71872285999104 num_pgs=1088 data_bytes=13828199913 read_op_per_sec=0 bytes_used=40517853184 num_osds=18 num_up_osds=18 num_in_osds=18 write_op_per_sec=0 read_bytes_sec=0 write_bytes_sec=2040 bytes_avail=71831768145920
    
  • Test de l’interface web de ceph-dash : http://IP_cluster-01:5000
  • Créer un service pour exécuter ceph-dash automatiquement sur les nœuds avec systemd

    • Se placer dans le répertoire des services :
    cd /etc/systemd/system
  • Créer un service portant le nom du script ceph-dash :
  • nano ceph-dash.service
  • Coller le contenu :
  • [Unit]
    Description=Monitoring Cluster Ceph
    
    [Service]
    Type=simple
    
    ExecStart=/opt/ceph-dash/ceph-dash.py -d
    
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    
  • Rendre le service exécutable :
  • chmod +x ceph-dash.service
  • Activer le service au démarrage du système :
  • systemctl enable ceph-dash.service
  • Démarrer le service :
  • systemctl start ceph-dash.service
  • Vérifier son statut :
  • systemctl status ceph-dash.service
    ● ceph-dash.service - Monitoring Cluster Ceph
       Loaded: loaded (/etc/systemd/system/ceph-dash.service; enabled)
       Active: active (running) since Wed 2017-03-29 13:21:27 CEST; 1min 9s ago
     Main PID: 147177 (python)
       CGroup: /system.slice/ceph-dash.service
               ├─147177 python /opt/ceph-dash/ceph-dash.py -d
               └─147182 /usr/bin/python /opt/ceph-dash/ceph-dash.py -d
    
    Mar 29 13:21:27 pve-02 systemd[1]: Started Monitoring Cluster Ceph.
    Mar 29 13:21:27 pve-02 ceph-dash.py[147177]: * Running on http://0.0.0.0:5000/
    Mar 29 13:21:27 pve-02 ceph-dash.py[147177]: * Restarting with reloader
    

    Installation du plugin check_ceph_dash sur Centréon

    • Se placer dans le répertoire des plugins :
    cd /usr/lib/nagios/plugins
  • Cloner le plugin check_ceph_dash :
  • git clone https://github.com/Crapworks/check_ceph_dash.git
  • Tester le plugin :
    cd check_ceph_dash/
    ./check-ceph-dash.py --url http://IP-cluster-01:5000
    
    • Exemple de résultat :
    OK: ceph cluster operates with no problems|bytes_total=71872285999104 num_pgs=1088 data_bytes=13828597225 read_op_per_sec=0 bytes_used=40509227008 num_osds=18 num_up_osds=18 num_in_osds=18 write_op_per_sec=0 read_bytes_sec=2040 write_bytes_sec=2040 bytes_avail=71831776772096
    
  • Création et configuration d’un service pour superviser un cluster Ceph dans Centréon

    • Créer la commande :
    • Créer le service :
    • Associer le service à un modèle d’hôte :
    • Redémarrer le collecteur :
    • Résultat après quelques minutes quand tout est OK :
    • Résultat avec des soucis sur le cluster Ceph :

    comment créer un ticket GLPI à partir de Centreon

    $
    0
    0

    Un mémo sur la mise ne place d’une solution de création de ticket GLPI à partir de l’interface web de Centreon.

    La solution mise en place est basé sur le plugin WebServices pour GLPI et le plugin centreon-open-tickets pour Centreon.

    Dans cet article, je ne traite pas de l’installation de GLPI et ni de Centreon, pour cela voir les liens suivant :

    Intervention sur le serveur GLPI

    Mon serveur GLPI est sous Debian 8 Jessie.

    • Mise en place du plugin WebServices sur le serveur GLPI :
      • Installer le paquet php5-xmlrpc :
      apt install php5-xmlrpc
    • Télécharger le plugin WebService :
    cd /var/www/html/glpi/plugins/
    wget https://downloads.sourceforge.net/project/glpiwebservices/webservices-1.6.1-MOD.tar.gz
    
  • Décompresser l’archive :
  • tar xzvf glpi-webservices-1.6.1-MOD.tar.gz
  • Donner les droits à www-data (serveur web) :
  • chown -R www-data:www-data webservices/
  • Installer le plugin WebServices via l’interface web de GLPI :
    • Se connecter à l’interface web de GLPI, se rendre dans le menu Plugins et cliquer sur « Installer » :
    • Activer le plugin :
    • Plugin WebService installé et activé :
  • Créer un webservice nommé « Centreon GLPI » pour la communication entre Centreon et GLPI :
    • Aller dans le menu webservice et cliquer sur l’icône « + » :
    • Remplir les champ et bien lire la case commentaires :
  • Intervention sur le serveur Centreon

    Mon serveur Centreon est sous CentOS 6.9 Final.

    • Installer le paquet php-xmlrpc
      yum install php-xmlrpc
    • Relancer le serveur web :
    service httpd restart
  • Installer le plugin centreon-open-tickets :
    • Cloner le plugin à partir de Github :
    cd /opt
    git clone https://github.com/centreon/centreon-open-tickets.git
    
  • Donner les droits d’éxécution sur le script d’installation :
  • cd centreon-open-tickets/
    chmod +x install.sh
    
  • Exécuter le script d’installation
    ./install.sh -i
    • Indiquer le chemin ou se trouve le fichier instCentWeb.conf :
    • Fin d’installation en mode terminal :
  • Continuer l’installation via l’interface web de Centreon :
    • Activer le plugin :
    • Cliquer sur Installer le module :
    • Créer une règle pour la création automatique d’un ticket dans GLPI :
      • La nouvelle règle :
    • Ajout d’une macro pour tous mes modèles d’hosts et idem pour les modèles de services:
      • Sélection des mes modèles puis changement massif :
      • Ajout de la macro :
    • Relancer les collecteurs Centreon :
  • Ajouter le widget « Open tickets » dans la vue personnalisées de Centreon :
    • Aller dans le menu « Accueil » puis « Vue personnalisées » et cliquer sur « Ajouter widget » :
    • Cocher « Open Tickets » puis cliquer sur « Soumettre » :
    • Configurer le nouvel widjet :
  • Cliquer sur l’icône « clé à molette » :
  • Sélectionner la règle précédemment créée et laisser vide la case « Opended Tickets » pour pourvoir créer des tickets dans GLPI à partir de Centreon :
  • Descendre l’ascenseur et cliquer sur « Appliquer » :
  • Le widget est opérationnel :
    • Exemple de services dans le statut warning :
    • Exemple de création d’un ticket GLPI pour pve-nfs :
      • Sélectionner le service en question et choisir « service: Open ticket » dans le menu « –More actions– » :
      • Création du ticket GLPI :
      • Le ticket est envoyé à GLPI :
    • Le ticket est bien créé dans GLPI :
  • Resource


    Centreon : connexion automatique à l’interface web (autologin)

    $
    0
    0

    Un mémo sur comment configurer Centreon pour donner un accès libre à la plateforme de supervision via une connexion automatique sans login et ni mot de passe.

    Configuration de Centreon pour l’autologin de l’interface web

    • Menu Administration -> Centreon web :
    • Aller en bas de page et cocher « Activer la connexion automatique » et « Afficher le raccourci de connexion automatique » puis cliquer sur « Sauvegarde » :

    Gestion utilisateur Centreon

    • Menu Configuration -> Utilisateurs et choisir « user » ou un autre de votre choix :
    • Menu Authentification Centreon et configurer tel quel :
      • Autoriser l’utilisateur à se connecter à l’interface web : oui
      • Mot de passe : cliquer sur Générer
      • Langue par défaut : choisir fr_FR.UTF-8 (ou autre)
      • Fuseau horaire / Localisation : Europe/Paris
      • Administrateur : Non
      • Clé d’auto-connexion : cliquer sur Générer
      • Source d’authentification : Centreon
    • Pour finir la configuration utilisateur, cliquer sur Sauvegarder
    • Activer l’utilisateur : cliquer sur l’icône de couleur verte tout à droite :

    Connexion automatique à l’interface web de Centreon

    Pour se connecter automatiquement sur l’interface web de Centreon, saisir l’url suivante : https://IP_CENTREON/centreon/main.php?p=1&autologin=1&useralias=[login_user]&token=[value_autologin]

    • FQDN_CENTREON : le nom DNS de votre serveur Centreon
    • [login_user] : user
    • [value_autologin] : mlDux17r60 (ceci est la clé d’auto-connexion générée dans l’interface de l’utilisateur)

    Choix de la page d’accueil de l’interface web de Centreon en autologin

    Il est possible de personnaliser l’URL pour choisir une page en spécifique en choisissant le bon menu. Exemple dans mon cas, je souhaite que l’utilisateur soit sur la page « Détails des status ». Pour ce faire, je me positionne sur cette page en question et je note le numéro dans l’url : https://FQDN_CENTREON/centreon/main.php?p=202

    Je modifie l’url d’auto login comme suit : https://FQDN_CENTREON/centreon/main.php?p=202&o=svc_unhandled&autologin=1&useralias=[login_user]&token=[value_autologin]

    Ressource

    Le blog de Centreon : http://blog.centreon.com/connexion-automatique-a-linterface-centreon-autologin/?lang=fr

    Superviser un onduleur avec Centreon

    $
    0
    0

    Un mémo sur comment superviser un onduleur respectant la RFC1628 avec Centreon.

    Installation de Centreon-plugins

    Pour rappel, si comme moi vous avez installé Centreon à partir de l’ISO, le système d’exploitation est CentOS.

    • Installer les pré-requis :
    yum install git perl net-snmp-perl perl-XML-LibXML perl-JSON perl-libwww-perl perl-XML-XPath perl-Net-Telnet perl-Net-DNS perl-DBI perl-DBD-MySQL perl-DBD-Pg
  • Téléchargement du package centreon-plugins :
  • cd /usr/lib/nagios/plugins
    git clone https://github.com/centreon/centreon-plugins.git
    chown -R centreon:centreon centreon-plugins/
    chmod +x centreon-plugins/centreon_plugins.pl
    

    Test du plugin hardware::ups::standard::rfc1628::snmp::plugin

    Le supervision de l’onduleur est réalisé avec le plugin hardware::ups::standard::rfc1628::snmp::plugin. Première chose à faire est de changer d’utilisateur pour ne pas effectuer les tests de supervision avec le compte root du serveur.

    • Changer pour l’utilisateur centreon :
      su centreon
    • Lister les modes du plugins :
      ./centreon_plugins.pl --plugin=hardware::ups::standard::rfc1628::snmp::plugin --list-mode

      • Les modes :
        • alarms
        • battery-status
        • input-lines
        • output-lines
        • output-source
    • Test du plugin avec le mode alarms :
      ./centreon_plugins.pl --plugin=hardware::ups::standard::rfc1628::snmp::plugin --mode=alarms --hostname=IP-ONDULEUR --snmp-version=v1 --snmp-community=public
      • Si tout est OK :
      OK: No alarms | 'alarms'=0;;;0;
  • Refaire les tests avec les autres modes :
  • Création de la commande dans Centreon

    • Menu « Configuration » -> « Commandes » -> « Ajouter » :
    • La nouvelle commande de check :

    Création des modèles de services dans Centreon

    Création des services correspondants pour chaque mode du plugin.

    • Menu Configuration » -> « Services » -> « Modeles » -> « Ajouter » :
    • Ajout du premier modèle pour le mode Alarms :
    • Faire de même pour les autres modes :

    Création du modèle d’hôte dans Centreon

    • Menu « Configuration » -> « Hôtes » -> « Modèles » -> « Ajouer » :
    • Renseigner un nom et un modèle puis aller dans l’onglet « Relations » :

    Ajout de l’onduleur à superviser dans Centreon

    • Menu « Configuration » -> « Hôtes » -> « Ajout » :
    • Renseigner les champs sans oublier d’ajouter le modèle d’hôte :

    Relance du collecteur pour la prise en compte des changements

    • Menu « Configuration » -> « Collecteurs » -> Sélectionner le collecteur > « Appliquer la configuration » :
    • Exporter la configuration :
    • L’onduleur est supervisé par Centreon :

    Activer et configurer le tableau de bord de Ceph Luminous

    $
    0
    0

    La nouvelle version de Ceph Luminous embarque un nouveau tableau de bord (dashboard), qui permet de voir l’état du cluster à partir d’un navigateur web via le daemon ceph-mgr.

    Utiliser le nouveau tableau de bord de Ceph

    Ce qui va suivre a été réalisé sur un cluster Ceph sous Proxmox 5.0

    • S’assurer que le paquet python-cherrypy3 est présent, sinon installer le :
    • apt install  python-cherrypy3
    • Activer le module « dashboard » :
    ceph mgr module enable dashboard
  • Lister le module :
  • ceph mgr module ls
    [
        "dashboard"
    ]
    
  • Autoriser l’écoute sur toutes les adresses IP :
  • ceph config-key set mgr/dashboard/server_addr ::
  • Redémarrer le service ceph-mgr :
    systemctl restart ceph-mgr@pve-01.service
  • Ouvrir un navigateur internet et saisir l’url de votre tableau de bord http://Ip_cluster_ceph:7000
  • Le tableau de board de Ceph Luminous

    Ce nouveau tableau de bord possède plusieurs vues :

    • Vue Santé du cluster :
    • Vue Serveurs :
    • Vue OSD :
    • Vue Pool :

    Ressources

    Déployer ceph-dash sur proxmox avec ansible

    $
    0
    0

    Un mémo sur comment déployer le plugin ceph-dash sur un cluster Ceph sous Proxmox avec Ansible.

    Le plugin ceph-dash me permet de superviser mes différents clusters Ceph avec Centron. Pour éviter d’installer et de configurer manuellement ce plugin sur mes nouveaux clusters Ceph, je vais utiliser Ansible afin d’automatiser le déploiement.

    Création d’un groupe pve-ceph

    Pour commencer, il faut ajouter les nouveaux nœuds dans un groupe dédié.

    • Éditions du fichier /etc/ansible/hosts :
    nano /etc/ansible/hosts
  • Ajout d’un nouveau groupe d’hôtes :
  • [pve-ceph]
    pve-01
    pve-02
    pve-03
    

    Échange de clé ssh

    Ensuite, réaliser les échanges de clé entre le serveur Ansible et les nouveaux nœuds.

    ssh-copy-id -i ~/.ssh/id_rsa.pub root@pve-01 -f
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@pve-02 -f
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@pve-03 -f

    Création du playbook

    Afin d’automatiser le déploiement de ceph-dash, création du playbook.

    • Création du nouveau playbook :
      nano /etc/ansible/playbook/ceph-dash.yml
      • Le contenu :
      - hosts: pve-ceph
        environment:
          https_proxy: http://PROXY:PORT
      
        tasks:
         - name: Run a Update packages list
           apt: update_cache=yes
      
         - name: install git
           apt:
            name: git
            state: present
      
         - name: Clone ceph-dash
           git:
            repo: 'https://github.com/Crapworks/ceph-dash.git'
            dest: /opt/ceph-dash
      
         - name: creat service ceph-dash.service
           template: src=services/ceph-dash.service dest=/etc/systemd/system/ceph-dash.service mode=644
      
         - name: reload daemon systemd
           shell: systemctl daemon-reload
      
         - name: start ceph-dash.service
           service: name=ceph-dash.service state=started enabled=yes
      
  • Création du répertoire ou va se trouver le nouveau service :
  • mkdir  /etc/ansible/playbook/services
  • Créer le service :
    nano /etc/ansible/playbook/services/ceph-dash.service
    • Le contenu :
    [Unit]
    Description=Monitoring Cluster Ceph
    
    [Service]
    Type=simple
    
    ExecStart=/opt/ceph-dash/ceph-dash.py -d
    
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    
  • Déploiement de Ceph-Dash

    Pour finir, déployer ceph-dash sur les serveurs Proxmox.

    • Exécution du playbook pour le déploiement de ceph-dash :
    ansible-playbook ceph-dash.yml
  • Test sur un nœud du cluster Ceph: http://pve-01:5000
  • La supervision d’un nœud Ceph sous Centreon :
  • Supervision : désactiver le contrôle de la certification des disques par Dell

    $
    0
    0

    Un mémo sur comment résoudre les alertes de type Warning Physical Disk status is ‘nonCritical ou is Online, Not Certified lors d’une vérification de l’état des disques d’un serveur Dell supervisé par Centreon.

    Ce type d’alerte est dû à une mauvaise version ou absence du firmware du disque dur, qui a été remplacé dans le serveur. Dans le cas présent, quatre disques d’un serveur ont été changés par de plus grandes capacités. Suite au changement de ces disques, une alerte de type Warning est apparu dans ma plateforme de supervision :

    nb : la solution que je propose est une alternative à l’opération lourde d’installation ou de mise à jour des firmwares des disques. Si le jour vous êtes amené à appeler le service client de Dell, généralement ils vous répondrons de mettre à jour les firmwares avant toutes interventions de leur part.

    Vérification du statut des disques sur le serveur

    A savoir, pour la supervision du matériel d’un serveur Dell, j’utilise le plugin centreon_plugins, qui s’appuie sur Openmanage.

    Afin de mieux cerner le problème, je vais réaliser plusieurs tests, car d’après le statut détaillé de l’alerte mes disques sont juste dans un état « nonCritical ».

    • Test avec le plugin centreon_plugins.pl :
    cd /usr/lib/nagios/plugins/centreon-plugins/
    ./centreon_plugins.pl --plugin=hardware::server::dell::openmanage::snmp::plugin --mode=hardware --hostname PVE-77 --component 'physicaldisk'
    

    WARNING:
    Physical Disk ‘Physical Disk 0:1:4’ status is ‘nonCritical’ –
    Physical Disk ‘Physical Disk 0:1:5’ status is ‘nonCritical’ –
    Physical Disk ‘Physical Disk 0:1:6’ status is ‘nonCritical’ –
    Physical Disk ‘Physical Disk 0:1:7’ status is ‘nonCritical

    Le message n’est pas très parlant, car il n’indique que les disques sont juste dans un état non critique. Comme dans l’interface web, normale vue que c’est ce plugin qui est utilisé.

  • Test avec le plugin check_openmanage (vieux plugin) :
  • cd /usr/lib/nagios/plugins/check_openmanage/
    ./check_openmanage -H PVE-77
    

    Physical Disk 0:1:4 [Seagate ST4000NM0023, 4.0TB] on ctrl 0 is Online, Not Certified
    Physical Disk 0:1:5 [Seagate ST4000NM0023, 4.0TB] on ctrl 0 is Online, Not Certified
    Physical Disk 0:1:6 [Seagate ST4000NM0023, 4.0TB] on ctrl 0 is Online, Not Certified
    Physical Disk 0:1:7 [Seagate ST4000NM0023, 4.0TB] on ctrl 0 is Online, Not Certified

    Le message est plus clair, les disques sont en ligne mais ne sont pas certifiés.

    Désactiver la vérification des disques certifiés par Dell sur le serveur à supervisier

    Pour désactiver la certification des disques par Dell, il suffit de changer la valeur yes par no de la variable NonDellCertifiedFlag dans le fichier stsvc.in, puis relancer le service dataeng.
    Ces opération sont à faire sur le serveur à superviser.

    • Changer la valeur yes par no dans le fichier stsvc.ini :
      sed -i '/^NonDellCertifiedFlag=/s/yes/no/' /opt/dell/srvadmin/etc/srvadmin-storage/stsvc.ini
    • Redémarrer le service dataeng :
      systemctl restart dataeng
    • ou :
    service dataeng restart
  • A partir du serveur Centreon, refaire un check :
  • ./centreon_plugins.pl --plugin=hardware::server::dell::openmanage::snmp::plugin --mode=hardware --hostname PVE-77 --component 'physicaldisk'

    OK: All 8 components are ok [8/8 physical disks].

    Ressource

    Centreon : mettre en place RRDCacheD

    $
    0
    0

    Un mémo sur comment mettre en place le processus RRDCacheD sous Centreon afin de limiter les I/O disque lors de la mise à jour des graphiques de performance et/ou des graphiques de statut (fichiers RRDs).
    Au lieu d’enregistrer une à une les données issues de la collecte, le module Centreon Broker fait appel au processus RRDCacheD afin de mutualiser les écritures sur disque.

    Mettre en place RRDCacheD sous Centreon

    RRDCacheD est disponible dans le paquet rrdtool, qui est déjà présent si l’installation de Centreon a été faite à partir de l’ISO.

    • Éditer le fichier /etc/sysconfig/rrdcached et modifier les informations suivantes :
      # Settings for rrdcached
      OPTIONS="-m 664 -l unix:/var/rrdtool/rrdcached/rrdcached.sock -s rrdcached -b /var/rrdtool/rrdcached -w 900 -z 900 -f 1800"
      RRDC_USER=rrdcached
      
      • -w : Les données sont écrites sur le disques toutes les x secondes (ici 900s donc 15minutes)
      • -z : Doit être inférieur ou égale à l’option -w. RRDCacheD utilise une valeur aléatoire ans l’intervalle [0:-z] pour décaler l’écriture d’un fichier afin d’éviter que trop d’écritures soient mises en attente simultanément.
      • -f : Correspond à un temps maximum de mise à jour (timeout). Si dans le cache des valeurs sont supérieures ou égales au nombre de secondes définies, alors celle-ci sont automatiquement écrite sur le disque.

      Donc choisir les valeurs -w, -z et -f suivant vos besoins.

    • Configuration des groupes :
    usermod -a -G rrdcached centreon-broker
    usermod -a -G rrdcached apache
    usermod -a -G centreon rrdcached
    usermod -a -G centreon-broker rrdcached
    
  • Redémarrer le service httpd (Apache2) :
  • service httpd restart
  • Démarrer le service rrdcached :
  • service rrdcached start

    Activation de RRDCacheD dans l’interface web de Centreon

    • Menu Administration -> Paramètres -> RRDTool :
    • centreon-rddtool-enabled

    • Aller en bas de page, cocher Activer RDDCached et saisir le chemin d’accès au socket Unix /var/rrdtool/rrdcached/rrdcached.sock puis cliquer sur Sauvegarder :
    • centreon-module-RDDCached-enbled-unix-socket

    • Sauvegarder le formulaire du broker rrd :
      • Menu Configuration -> Configuration de Centreon Broker -> centreon-broker-master :
      • Cliquer dans l’onglet Output, puis choisir RDD File generator dans le menu déroulant et cliquer sur Ajouter :
      • Donner un Nom, exemple RDDFILE :
      • Aller en bas de page, vérifier la ligne Socket Unix qui doit correspondre à /var/rrdtool/rrdcached/rrdcached.sock puis cliquer sur Sauvegarder :
    • Exporter la configuration du broker :

    • Pour finir, redémarrer le service cbd :
    service cbd restart

    Ressource

    Résoudre l’erreur ceph health JSON format has changed in luminous

    $
    0
    0

    Un mémo sur comment résoudre l’erreur ceph health JSON format has changed in luminous suite à la mise à jour de le version de Ceph sur un cluster Proxmox superviser par un serveur Centreon avec le plugin ceph-dash.

    Suite à une mise à jour d’un cluster Proxmox 4 vers la dernière version 5, sur ma plateforme de supervision Centreon, j’ai obtenu comme erreur sur le Ceph :

    WARNING: HEALTH_WARN: ‘ceph health’ JSON format has changed in luminous. If you see this your monitoring system is scraping the wrong fields. Disable this with ‘mon health preluminous compat warning = false’

    Cluster Ceph Proxmox

    • Désactiver le message d’alerte concernant le changement de format de JSON :
      • Exécuter la commande suivante sur un noeud du cluster Ceph :
      ceph tell mon.* injectargs "--mon_health_preluminous_compat_warning=false"

    Serveur Centreon

    Après avoir désactivé le message d’erreur concernant le format de JSON, un nouveau problème d’incompatibilité avec le plugin :

    ./check-ceph-dash.py --url 'http://IP_srv_proxmox:5000'
    Traceback (most recent call last):
      File "./check-ceph-dash.py", line 91, in 
        main()
      File "./check-ceph-dash.py", line 87, in main
        print "%s|%s" % (status.get_nagios_string(), status.get_perf_data())
      File "./check-ceph-dash.py", line 72, in get_nagios_string
        nagios_str, nagios_exit = self._map(self['health']['overall_status'])
    KeyError: 'overall_status'
    

    Pour résoudre ce petit problème, il suffit de mettre à jour le plugin sur le poller centreon :

    • Se placer dans le répertoire du plugin :
    cd /usr/lib/nagios/plugins/check_ceph_dash
  • Mettre à jour le plugin :
  • git pull
    remote: Enumerating objects: 6, done.
    remote: Counting objects: 100% (6/6), done.
    remote: Total 10 (delta 6), reused 6 (delta 6), pack-reused 4
    Unpacking objects: 100% (10/10), done.
    From https://github.com/Crapworks/check_ceph_dash
       35fe6b5..fafe1cb  master     -> origin/master
    Updating 35fe6b5..fafe1cb
    Fast-forward
     check-ceph-dash.py |   22 ++++++++++++++++++----
     1 files changed, 18 insertions(+), 4 deletions(-)
    
  • La supersvion est de nouveau opérationnelle :
  • Ressources


    Nagstamon : outil de bureau pour afficher l’état de la supervision

    $
    0
    0

    Nagstamon pour Nagios Status Monitor est un outil permettant d’afficher l’état de sa supervision directement sur un environnement de bureau sans passer par un navigateur internet.

    Cet outil peut être configuré et connecté sur plusieurs serveurs de supervision à la fois et compatible avec différents moteur de supervision (Nagios, Centreon, Icinga, Opsview, etc…), de plus étant écrit en python 3 et utilisant toolkit Qt 5 GUI, Nagstamon est compatible avec les différents systèmes d’exploitation GNU/Linux, *BSD, MacOS et Windows.

    Une fois installé, Nagstamon se loge sous forme de barre d’état flottante sur le bureau, affichant un bref résumé des hôtes et services critiques. Lorsque la souris passe au dessus de la barre d’état, s’affiche un aperçu détaillé des différents états des hôtes et des services supervisés. Une connexion aux hôtes et services affichés peut être facilement établie par le menu contextuel via différents protocoles comme SSH, RDP et VNC.

    Nagstamon s’inspire de Nagios Checker pour Firefox, est publié sous la licence GPLv2.

    Installer Nagstamon sur son bureau

    • Arch Linux / Manjaro, disponible sur AUR :
    yaourt -S nagstamon
  • Debian / Ubuntu, disponible dans les dépôts officiels :
  • apt install nagstamon
  • Pour les autres distributions, voir la page de téléchargement : https://nagstamon.ifw-dresden.de/download/
  • Configurer Nagstamon

  • Ouvrir Nagstamon, soit faire une recherche via la barre de recherche ou directement à partir du menu Administration :
  • Étant donné que Nagstamon n’est pas encore configuré, une fenêtre s’ouvre ou proposant de creer un premier serveur de supervision :
  • Cliquer sur « Create new server » pour configurer un serveur de supervision :
  • Une fois le serveur de supervision renseigner et configurer, une petite fenêtre s’ajoute automatiquement sur le bureau :
  • Lorsque la souris passe sur la barre de Nagstamon, les détails des status s’affichent :
  • Personnaliser Nagstamon

    Cet outil possède divers réglages qui permettent de personnaliser l’affichage, les actions, les notifications, etc…

  • Cliquer sur « Settings » :
  • Menu de personnalisation de l’outil Nagstamon :
  • Ressources

    LibreNMS : superviser un serveur LNMP (Linux Nginx MariaDB PHP)

    $
    0
    0

    Un petit mémo sur comment superviser les services d’un serveur web (Nginx, MariaDB et PHP) sous Linux avec LibreNMS.

    Configuration des services à superviser : Nginx, MariaDB et PHP

    Cette partie est à réaliser sur le serveur à superviser. L’installation et la configuration du serveur web ainsi que le service snmpd ne seront pas traités ici.

    • Installation de l’agent Librenms :
    cd /opt/
    git clone https://github.com/librenms/librenms-agent.git
    cd librenms-agent
    cp check_mk_agent /usr/bin/check_mk_agent
    chmod +x /usr/bin/check_mk_agent
    cp check_mk@.service check_mk.socket /etc/systemd/system
    mkdir -p /usr/lib/check_mk_agent/plugins /usr/lib/check_mk_agent/local
    cp -r agent-local/ /usr/lib/check_mk_agent/local/
    chmod +x /usr/lib/check_mk_agent/local/$script
    systemctl enable check_mk.socket && systemctl start check_mk.socket
    
    • Télécharger les scripts pour la supervision de chaque service :
    wget https://raw.githubusercontent.com/librenms/librenms-agent/master/snmp/nginx -O /etc/snmp/nginx
    wget https://github.com/librenms/librenms-agent/raw/master/snmp/phpfpmsp -O /etc/snmp/phpfpmsp
    wget https://github.com/librenms/librenms-agent/raw/master/snmp/mysql -O /etc/snmp/mysql
    
  • Rendre les scripts éxécutable :
  • chmod +x /etc/snmp/nginx
    chmod +x /etc/snmp/phpfpmsp
    chmod +x /etc/snmp/mysql
    
  • Ajouter dans le fichier snmpd.conf :
  • extend mysql /etc/snmp/mysql
    extend nginx /etc/snmp/nginx
    extend phpfpmsp /etc/snmp/phpfpmsp
    
  • Redémarrer le service snmpd :
  • systemctl restart snmpd
  • Configurer Nginx et de phpfpmsp :
    • Créer un nouveau fichier serveur block nginx :
    nano /etc/nginx/conf.d/status.conf
    server {
        listen localhost;
        server_name status.localhost;
        keepalive_timeout 0;
    
        access_log off;
    
        allow 127.0.0.1;
        deny all;
    
    ###status nginx
        location /nginx-status {
            stub_status on;
    }
    ###status de php-fpm
        location ~ ^/(status|ping)$ {
            allow 127.0.0.1;
            fastcgi_param SCRIPT_FILENAME /usr/share/php/8.0/fpm/status.html;
            fastcgi_index index.php;
            include fastcgi_params;
            fastcgi_pass unix:/run/php/php8.0-fpm.sock;
    }
        }
    
  • Pour vérifier le status de php, éditer le fichier /etc/php/8.0/fpm/pool.d/www.conf :
  • nano /etc/php/8.0/fpm/pool.d/www.conf

    décommenter la ligne pm.status_path = /status

  • Vérifier la configuration de nginx et de php :
  • nginx -t
    php-fpm8.0 -t
  • Si pas d’erreur, redémarrer les services :
  • systemctl restart nginx php8.0-fpm
  • Vérifier les status en mode terminal :
    • nginx :
    curl -L http://localhost/nginx-status
  • php :
    curl -L http://127.0.0.1/status
    • exemple :
  • Configurer le script MySql :
  • Dans le répertoire /etc/snmp/ (celui ou a été téléchargé le script myslq) créer le fichier mysql.cnf avec les informations suivantes (login et mdp à modifier) :

    nano /etc/snmp/mysql.cnf
    <?php
    $mysql_user = 'root';
    $mysql_pass = 'MDP';
    $mysql_host = 'localhost';
    $mysql_port = 3306;
    $chk_options['slave'] = false;
    
    ?>
  • Tester le script :
    ./mysql
    • exemple de sortie :
  • Activation des applications à superviser dans LibreNMS :

    Les étapes suivantes sont à rélaliser dans l’interface web de LibreNMS.

    • Sélectionner l’hôte à superviser, exemple :
    • Cliquer sur le roue « dentée » à droite de la fenêtre :
    • Cliquer sur le menu Application, puis activer les modules Nginx, PHP-FPM et MySQL :
    • Après quelques disaines de minutes, les premièrs relevés apparaissent sour forme de graphiques dans le menu Apps :

    Ressources

    Viewing all 37 articles
    Browse latest View live