Clustered Data ONTAP

Aus MeinWiki
Wechseln zu: Navigation, Suche

Cluster

System

  • Console Node
    system node run-console "node-Name"
    system node run -node "nodename" 
    system node run -node "nodename" -command "Befehl" bzw. ?
  • SPF Mode (FC/CNA) ändern.
system node hardware unified-connect Show
fcp adapter modify -node "Nodename" -adapter 0d -state down
system node hardware unified-connect modify -node "Nodename" -adapter 0c -mode cna
  • FC Mode (target/Initiator) anpassen.
fcp adapter modify -node "Nodename" -adapter 2a -state down
system node hardware unified-connect modify -node "Nodename" -adapter 2a -type target

Wenn der Port im Cluster nicht stoppt, an der Node anmelden und folgende Befehle ausführen.

priv set advanced
fcadmin offline 2a
  • WWPN von LIF anpassen. (LiF muss down sein!)
vserver fcp portname set -vserver "Vserver" -lif "Lifname" -wwpn "00:00:00:00:00:00:00:00"
  • Node reboot.
system node reboot -node "Nodename"

Network

  • LIF erstellen.
   network interface create -vserver "SVM" -lif "lif_name" -role data -data-protocol cifs -home-node "Nodename" -home-port e0d -address "IP-Adresse -netmask 255.255.255.0
  • Netzwerk Failover überprüfen.
broadcast-domain show
failover-groups show
  • Route überprüfen!
route show
route create -vserver "SVM" -destination 0.0.0.0/0  -gateway 172...

Storage

storage aggregate

  • Aggregat erstellen
   create -aggregate aggr1_n2 -t raid_dp -d NET-2.10 NET-2.11 NET-2.12 NET-2.13 NET-2.14
  • Aggregat umbenennen
   rename -aggregate aggr0_tsta_clust1_02_0 -newname aggr0_n2
  • Disk zum Aggregat hinzufügen
   add-disk -aggregate aggr0_n1 -d NET-1.6
  • Aggregate löschen
   offline -aggregate aggr1_n1
   delete -aggregate aggr1_n1

Volume

  • Erstellen eines Volumes
   create -volume cifs_abteilungen -aggregate aggr1_n1 -size 1g -space-guarantee none
  • Speicherbelegung abfargen
   df -vserver "nodename" vol0 -h 
  • Volumegröße ändern
   size -vserver "nodename" vol0 1g
  • Wenn Volumes ohne den Parameter "-foreground true" gelöscht werden, dann wird der Speicher nicht sofort freigeben, sondern das Volume wird in der Recovery-Queue abgelegt.

Zum Anzeigen der Recovery-Queue:

set diagnostic -confirmations  off
vol recovery-queue show

Zum Leeren der Recovery-Queue:

vol recovery-queue purge -vserver "Vserver" -volume "Volname"
  • Volume vom Typ TMP ändern. (Abgebrochene 7mod Transaktion)
volume show -type tmp
volume transition-protect -vserver "Vserver" -volume "VolumeName" -is-enabled off
  • Thin Provisioned bei allen Laufwerken aktiveren.
modify -vserver "Vservername" -volume * -space-guarantee none

LUN

  • LUN Clone
volume file clone create -vserver "Vservername"  -source-path "Sourcepath" -destination-path "Destinationpath" -snapshot-name "Snapshotname"
lun offline -vserver "Vservername" -path "Destinationpath"
lun delete -vserver "Vservername" -path "Destinationpath" -force true

Snapshot

  • alle Snapshots löschen
   snapshot delete -vserver "Vservername" -volume "Volumename" -snapshot * -force true
  • Snapshot mit Snapmirrorverbindung löschen (höhere Berechtigung)
   snapshot delete -vserver "Vserver" -volume "Volname" -snapshot "Snapname" -force true -ignore-owners true
  • Automatische Snapshots abschalten.
volume modify  -vserver "Vserver" -volume "Volumename" -snapshot-policy none

vServer

  • vServer information
vserver show -vserver "Vservername" -instance
  • vServer erstellen
   vserver create -vserver "Vservername" -rootvolume sm1_root -subtype default -aggregate "Aggreatename" -rootvolume-security-style ntfs -language C.UTF-8 -snapshot-policy default -is-repository false
  • Aggregate zuweisen.
vserver modify -vserver "Vservername" -aggr-list "Aggreatename","Aggreatename"

FC

  • Lif erstellen
network interface create -vserver "vServer-Name" -lif  "Lif-Name" -role data -data-protocol fcp -home-node "Node-Name" -home-port 1b

SSH

  • PublicKey-Anmeldung erstellen.
   security login create -user-or-group-name "UserName"" -application ssh -authmethod publickey -vserver "vServername" -role admin -comment "Beschreibung"
   security login publickey create -vserver "vServername" -username "UserName" -index 0 -publickey "Key" -comment "Beschreibung"

RSH / Firewall

Firewall Protokoll aktivieren

   system services
  • Vorhandene Policy klonen.
   firewall policy clone -policy "Name" -vserver "vServername" -destination-policy "NewName"
  • Protokoll aktivieren (z.Bsp. RSH)
   firewall policy create -vserver "vServername" -policy "NewName" -service  rsh -allow-list 0.0.0.0/0
  • Policy auf Lokal Interface aktivieren
   network interface modify -vserver "vServername" -lif "LIF-Name"  -firewall-policy "NewName"
  • Auflisten der Lokal Interface mit bestimmter Firewall Policy
   network Interface show -firewall-policy "NewName"

Firewall Policy löschen

  • Alle Einträge löschen.
   security system services firewall policy delete -policy "Name" -vserver "vServername" -service *

Snapmirror

Verbindung trennen

  • Destination,
  snapmirror delete -destination-path "Path"
  • Source
  snapmirror list-destinations
  snapmirror release -source-path "Path" *
  snapmirror release -relationship-ip "ID"
  • Ändern der Protection Policies beim Volume
 snapmirror modify -destination-path "Volumename" -policy "Policyname"

Verbindung ändern

  • Verbindung löschen.
snamirror delete -destination-path "Zielpath" 
  • Neue Verbindung erstellen.
snapmirror create -source-path "Quellpath" -destination-path "Zielpath" -type XDP -policy "Policy"
  • Verbindung syncronisieren.
snapmirror resync -destination-path "Zielpath"

Snapmirror reverse resync

  • Verbindung unterbrechen.
snapmirror break -destination-path "Zielpath"
  • Verbindung am Ziel löschen.
snapmirror show
snapmirror delete -destination-path "Zielpath"
  • Verbindung an der Quelle löschen.
snapmirror list-destination
snapmirror release -destination-path "Zielpath"
  • Verbindung neu erstellen (Quellpath => alter Zielpath; Zielpath => alter Quellpath)
snapmirror create -source-path  "Alter Zielpath" -destination-path "Alter Quellpath"
  • Verbindung syncronisieren.
snapmirror resync -destination-path "Zielpath"

Snapshot

Policy ändern

  • Snapshotpolicy beim Volume ändern
volume modify -vserver "vserver" -volume "volume" -snapshot-policy default

NFS / Ontap 8.3

Für NFS sollte eine separate SVM verwendet werden.

  • Vserver erstellen.
vserver create  -vserver "SVM" -subtype default -rootvolume "VServerName_root" -aggregate "Aggregatname" -rootvolume-security-style unix -language de.UTF-8 -snapshot-policy default -is-repository false
  • LIF erstellen. (siehe Netzwerk)
network interface show
network interface create -vserver "SVM" -lif "Nodename_nfs1" -role data -data-protocol nfs -home-node "Nodename" -home-port e0c-2 -address "IP-Addresse" -netmask 255.255.255.0 -status-admin up -failover-policy system-defined -firewall-policy data -auto-revert false
  • NFS-Server erstellen.
 nfs create -vserver "SVM" -access true -v3 enabled -v4.0 disabled -tcp enabled -v4.0-acl disabled -v4.0-read-delegation disabled
  • Volume erstellen.
volume create -vserver "SVM" -volume "Volumename" -aggregate "Aggregatename" -size 10g -state online -type RW -policy default -unix-permissions ---rwxr-xr-x -space-guarantee volume -snapshot-policy default -foreground true -language de.UTF-8
  • Namespace erstellen.
mount -vserver "SVM" -volume "Volumename" -junction-path /"Path"
volume show -fields junction-path
  • Berechtigung auf das Root-Verzeichnis beachten!

UNIX to NTFS

  • Fehlerunterdrückung beim Zugriff über NFS auf Cifs.
vserver nfs modify -vserver "vServername" -ntfs-unix-security-ops ignore
  • Userbinding Unix zu NTFS.
name-mapping create -vserver "VserverName" -direction unix-win -position 1 -pattern root -replacement "domain\\username"
  • Mapping anzeigen.
vserver name-mapping show
  • Überprüfen der Usereinstellung (root "0").
secd authentication show-creds -node "NodeName" -vserver "VserverName" -uid 0
  • Überprüfen eines Windowsusers.
secd authentication show-creds -node "NodeName" -vserver "VserverName" -win-name "domain\username"

SNMP

system snmp community add -type ro -community-name "Name" -vserver "VSERVER"
system snmp community show

CIFS

  • Wenn bei alten Programmen die Dateikonvention 8.3 verwendet wird muss auf der entsprechenden SVM der Parameter gesetzt werden.
 vserver cifs options modify -vserver "Vservername" -is-search-short-names-enabled true

NDMP / Backup

  • Passwort für NDMP-Verbindung abfragen.
vserver ndmpd generate-password -vserver "Vservername" -user admin

Sonstig

Autosupport

  • Maintenance starten.
system node autosupport invoke -node * -type all -message MAINT="Stunden"
  • Maintenance beenden.
system node autosupport invoke -node * -type all -message MAINT=STOP
  • Autosupport deaktivieren.
system node autosupport modify -node * -state disable
  • Autosupport aktivieren.
system node autosupport modify -node * -state enable

Backup (Snapvault) SVM / Cluster ändern

  • Daten mit Snapmirror an das Ziel übertragen.
  • Snapvault Verbindung auflösen.
 snapmirror delete -destination-path "Path"
  • Snapmirrorupdate durchführen
  • Snapmirror Verbindung unterbrechen.
 snapmirror break -destination-path "Path"
 snapmirror delete -destination-path "Path"
  • Volumenamen ggf. ändern.
  • Snapvaultverbindung zum neuen Volume erstellen.
 snapmirror create -source-path "Path" -destination-path "Path"  -type XDP -policy "Policyname"
  • Snapvault-Verbindung syncronisieren.
 snapmirror resync -destination-path "Path"
  • Snapvault Verbindung überprüfen.

Backuplog

set -privilege diagnostic
volume snapshot show -fields create-time, tags "Volumename"

Snapdrivesetting

  • Aktivieren des Users vsadmin
 security login password -username vsadmin -vserver "Vservername"
 security login unlock -username vsadmin -vserver "Vservername"
  • Erstellen eines LIF's mit folgenden Parametern
 network interface create -vserver "Vservername" -lif "Lifname" -role data -data-protocol none -home-node "Homenode"
 -home-port e0e -address "IP-Adresse" -netmask "Netmask" -status-admin up -firewall-policy mgmt
  • Firewallpoliciy erstellen.
 system services firewall policy create -vserver "Vservername" -policy fcp2mgmt -service http -allow-list 0.0.0.0/0
 system services firewall policy create -vserver "Vservername" -policy fcp2mgmt -service https -allow-list 0.0.0.0/0
  • Es können im Snapdrive mehrere Verbindungen zu dem Vserver definiert werden. Der DNS-Name muss nicht mit dem Vservername übereinstimmen.

Netzwerkscan

  • Überwachung starten:
 pktt start all -i "IP-Addresse zum überwachen" -d /etc/crash
  • Abruf der Daten
http://ClusterIp/spi

SSL Certificate

  • Erweiterte Berechtigung
set d -c off
  • Certificate anzeigen
security ssl show
security certificate show
  • Certificate Details anzeigen.
security certificate show -instance -vserver "vServername" -common-name "Name"

Automatisch verlängern

  • Altes Certificat löschen
security certificate delete -vserver "vServername" -common-name "Name" -ca "Name" -type server -serial 556D800F
  • Certificat automatisch neu erstellen (1 Jahr)
ssl modify -vserver "vServerName" -server-enabled true

Definiert verlängern

  • Altes Certificat löschen
security certificate delete -vserver "vServername" -common-name "Name" -ca "Name" -type server -serial 556D800F
  • Neues definiertes Certificat erstellen.
security certificate create -vserver "vServername" -common-name "Name" -type server -size 2048 -country US -state "" -locality "" -organization "" -unit "" -email-addr "email@e.mail" -expire-days 3650 -protocol SSL -hash-function SHA256
  • Neues Certificat aktivieren.
ssl modify -vserver "vServername" -server-enabled true -ca "Name" -client-enabled false -serial 575A69F2 -common-name "Name"

Befehle

  • Nodeseriennummer
system health controller show -instance -node "Nodename"
  • Cluster Seriennummer
 cluster identity show
  • All Infos.
run local sysconfig -av
  • Installationsdatum
system node image show -node "Nodename"

Disk

  • Disk anzeigen.
storage disk show
                     Usable           Disk    Container   Container
Disk                   Size Shelf Bay Type    Type        Name      Owner
---------------- ---------- ----- --- ------- ----------- --------- --------
2.0.0               186.1GB     0   0 SSD     aggregate   clust2_01_data1
                                                                   clust2-01
2.0.3               186.1GB     0   3 SSD     spare       Pool0     clust2-01
2.0.4                3.63TB     0   4 FSAS    shared      clust2_01_data1, clust2_01_root
                                                                   clust2-01
2.0.6                3.63TB     0   6 FSAS    shared      -         clust2-01
  • Sparedisk anzeigen,
storage disk storage aggregate show-spare-disks
Original Owner: clust2-01
Pool0
 Spare Pool

                                                          Usable Physical
Disk                        Type     RPM Checksum           Size     Size Status
--------------------------- ----- ------ -------------- -------- -------- --------
2.0.3                       SSD        - block           186.1GB  186.3GB zeroed
Original Owner: clust2-01
Pool0
 Partitioned Spares
                                                           Local    Local
                                                            Data     Root Physical
Disk                        Type     RPM Checksum         Usable   Usable     Size Status
--------------------------- ----- ------ -------------- -------- -------- -------- --------
2.0.6                       FSAS    7200 block            3.58TB  53.88GB   3.64TB zeroed
  • Es werden nur Sparedisk ohne Partition angezeigt
storage disk show -spare

Info: This cluster has partitioned disks. To get a complete list of spare disk capacity use "storage aggregate show-spare-disks".
Original Owner: clust2-01
 Checksum Compatibility: block
                                                           Usable Physical
   Disk            HA Shelf Bay Chan   Pool  Type    RPM     Size     Size Owner
   --------------- ------------ ---- ------ ----- ------ -------- -------- --------
   2.0.3           0a     0   3    A  Pool0   SSD      -  186.1GB  186.3GB clust2-01
  • Partition anzeigen

storage disk partition show

                         Usable  Container     Container
Partition                 Size    Type          Name              Owner
------------------------- ------- ------------- ----------------- -----------------
2.0.4.P1                   3.58TB aggregate     /clust2_01_data1/plex0/rg0
                                                                 clust2-01
2.0.4.P2                  53.88GB aggregate     /clust2_01_root/plex0/rg0
                                                                 clust2-01
2.0.6.P1                   3.58TB spare         Pool0             ssta-clust2-01
2.0.6.P2                  53.88GB spare         Pool0             ssta-clust2-01