Clustered Data ONTAP: Unterschied zwischen den Versionen
Aus MeinWiki
(→FC) |
(→SSH) |
||
| (44 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 1: | Zeile 1: | ||
== Cluster == | == Cluster == | ||
| − | [[Namenskonvention]] | + | *[[Namenskonvention]] |
| + | *[[Troubleshooting]] | ||
=== System === | === System === | ||
* Console Node | * Console Node | ||
| Zeile 16: | Zeile 17: | ||
priv set advanced | priv set advanced | ||
fcadmin offline 2a | fcadmin offline 2a | ||
| + | * WWPN von LIF anpassen. (LiF muss down sein!) | ||
| + | vserver fcp portname set -vserver "Vserver" -lif "Lifname" -wwpn "00:00:00:00:00:00:00:00" | ||
*Node reboot. | *Node reboot. | ||
system node reboot -node "Nodename" | system node reboot -node "Nodename" | ||
| Zeile 41: | Zeile 44: | ||
offline -aggregate aggr1_n1 | offline -aggregate aggr1_n1 | ||
delete -aggregate aggr1_n1 | delete -aggregate aggr1_n1 | ||
| + | |||
==== Volume ==== | ==== Volume ==== | ||
* Erstellen eines Volumes | * Erstellen eines Volumes | ||
| Zeile 46: | Zeile 50: | ||
*Speicherbelegung abfargen | *Speicherbelegung abfargen | ||
df -vserver "nodename" vol0 -h | df -vserver "nodename" vol0 -h | ||
| − | * | + | *Volumegröße ändern |
size -vserver "nodename" vol0 1g | size -vserver "nodename" vol0 1g | ||
| + | *Wenn Volumes ohne den Parameter "-foreground true" gelöscht werden, dann wird der Speicher nicht sofort freigeben, sondern das Volume wird in der Recovery-Queue abgelegt. | ||
| + | Zum Anzeigen der Recovery-Queue: | ||
| + | set diagnostic -confirmations off | ||
| + | vol recovery-queue show | ||
| + | Zum Leeren der Recovery-Queue: | ||
| + | vol recovery-queue purge -vserver "Vserver" -volume "Volname" | ||
| + | * Volume vom Typ TMP ändern. (Abgebrochene 7mod Transaktion) | ||
| + | volume show -type tmp | ||
| + | volume transition-protect -vserver "Vserver" -volume "VolumeName" -is-enabled off | ||
| + | * Thin Provisioned bei allen Laufwerken aktiveren. | ||
| + | modify -vserver "Vservername" -volume * -space-guarantee none | ||
| + | |||
| + | ==== LUN ==== | ||
| + | * LUN Clone | ||
| + | volume file clone create -vserver "Vservername" -source-path "Sourcepath" -destination-path "Destinationpath" -snapshot-name "Snapshotname" | ||
| + | lun offline -vserver "Vservername" -path "Destinationpath" | ||
| + | lun delete -vserver "Vservername" -path "Destinationpath" -force true | ||
| + | |||
==== Snapshot ==== | ==== Snapshot ==== | ||
*alle Snapshots löschen | *alle Snapshots löschen | ||
snapshot delete -vserver "Vservername" -volume "Volumename" -snapshot * -force true | snapshot delete -vserver "Vservername" -volume "Volumename" -snapshot * -force true | ||
| + | *Snapshot mit Snapmirrorverbindung löschen (höhere Berechtigung) | ||
| + | snapshot delete -vserver "Vserver" -volume "Volname" -snapshot "Snapname" -force true -ignore-owners true | ||
| + | *Automatische Snapshots abschalten. | ||
| + | volume modify -vserver "Vserver" -volume "Volumename" -snapshot-policy none | ||
| + | |||
== vServer == | == vServer == | ||
| + | * vServer information | ||
| + | vserver show -vserver "Vservername" -instance | ||
* vServer erstellen | * vServer erstellen | ||
| − | vserver create -vserver | + | vserver create -vserver "Vservername" -rootvolume sm1_root -subtype default -aggregate "Aggreatename" -rootvolume-security-style ntfs -language C.UTF-8 -snapshot-policy default -is-repository false |
| + | * Aggregate zuweisen. | ||
| + | vserver modify -vserver "Vservername" -aggr-list "Aggreatename","Aggreatename" | ||
| + | |||
== FC == | == FC == | ||
* Lif erstellen | * Lif erstellen | ||
| Zeile 61: | Zeile 93: | ||
* PublicKey-Anmeldung erstellen. | * PublicKey-Anmeldung erstellen. | ||
security login create -user-or-group-name "UserName"" -application ssh -authmethod publickey -vserver "vServername" -role admin -comment "Beschreibung" | security login create -user-or-group-name "UserName"" -application ssh -authmethod publickey -vserver "vServername" -role admin -comment "Beschreibung" | ||
| − | security login publickey create -vserver | + | security login publickey create -vserver "vServername" -username "UserName" -index 0 -publickey "Key" -comment "Beschreibung" |
== RSH / Firewall == | == RSH / Firewall == | ||
| Zeile 84: | Zeile 116: | ||
*Source | *Source | ||
snapmirror list-destinations | snapmirror list-destinations | ||
| + | snapmirror release -source-path "Path" * | ||
snapmirror release -relationship-ip "ID" | snapmirror release -relationship-ip "ID" | ||
| + | *Ändern der Protection Policies beim Volume | ||
| + | snapmirror modify -destination-path "Volumename" -policy "Policyname" | ||
| + | === Verbindung ändern === | ||
| + | * Verbindung löschen. | ||
| + | snamirror delete -destination-path "Zielpath" | ||
| + | * Neue Verbindung erstellen. | ||
| + | snapmirror create -source-path "Quellpath" -destination-path "Zielpath" -type XDP -policy "Policy" | ||
| + | * Verbindung syncronisieren. | ||
| + | snapmirror resync -destination-path "Zielpath" | ||
| + | === Snapmirror reverse resync === | ||
| + | * Verbindung unterbrechen. | ||
| + | snapmirror break -destination-path "Zielpath" | ||
| + | * Verbindung am Ziel löschen. | ||
| + | snapmirror show | ||
| + | snapmirror delete -destination-path "Zielpath" | ||
| + | * Verbindung an der Quelle löschen. | ||
| + | snapmirror list-destination | ||
| + | snapmirror release -destination-path "Zielpath" | ||
| + | * Verbindung neu erstellen (Quellpath => alter Zielpath; Zielpath => alter Quellpath) | ||
| + | snapmirror create -source-path "Alter Zielpath" -destination-path "Alter Quellpath" | ||
| + | * Verbindung syncronisieren. | ||
| + | snapmirror resync -destination-path "Zielpath" | ||
| + | |||
| + | == Snapshot == | ||
| + | === Policy ändern === | ||
| + | * Snapshotpolicy beim Volume ändern | ||
| + | volume modify -vserver "vserver" -volume "volume" -snapshot-policy default | ||
== NFS / Ontap 8.3 == | == NFS / Ontap 8.3 == | ||
| Zeile 100: | Zeile 160: | ||
mount -vserver "SVM" -volume "Volumename" -junction-path /"Path" | mount -vserver "SVM" -volume "Volumename" -junction-path /"Path" | ||
volume show -fields junction-path | volume show -fields junction-path | ||
| + | * Berechtigung auf das Root-Verzeichnis beachten! | ||
| + | === UNIX to NTFS === | ||
| + | * Fehlerunterdrückung beim Zugriff über NFS auf Cifs. | ||
| + | vserver nfs modify -vserver "vServername" -ntfs-unix-security-ops ignore | ||
| + | * Userbinding Unix zu NTFS. | ||
| + | name-mapping create -vserver "VserverName" -direction unix-win -position 1 -pattern root -replacement "domain\\username" | ||
| + | * Mapping anzeigen. | ||
| + | vserver name-mapping show | ||
| + | *Überprüfen der Usereinstellung (root "0"). | ||
| + | secd authentication show-creds -node "NodeName" -vserver "VserverName" -uid 0 | ||
| + | *Überprüfen eines Windowsusers. | ||
| + | secd authentication show-creds -node "NodeName" -vserver "VserverName" -win-name "domain\username" | ||
| + | |||
| + | == SNMP == | ||
| + | system snmp community add -type ro -community-name "Name" -vserver "VSERVER" | ||
| + | system snmp community show | ||
| + | |||
| + | == CIFS == | ||
| + | * Wenn bei alten Programmen die Dateikonvention 8.3 verwendet wird muss auf der entsprechenden SVM der Parameter gesetzt werden. | ||
| + | vserver cifs options modify -vserver "Vservername" -is-search-short-names-enabled true | ||
| + | |||
| + | == NDMP / Backup == | ||
| + | * Passwort für NDMP-Verbindung abfragen. | ||
| + | vserver ndmpd generate-password -vserver "Vservername" -user admin | ||
| + | |||
| + | == Sonstig == | ||
| + | === Autosupport === | ||
| + | * Maintenance starten. | ||
| + | system node autosupport invoke -node * -type all -message MAINT="Stunden" | ||
| + | * Maintenance beenden. | ||
| + | system node autosupport invoke -node * -type all -message MAINT=STOP | ||
| + | * Autosupport deaktivieren. | ||
| + | system node autosupport modify -node * -state disable | ||
| + | *Autosupport aktivieren. | ||
| + | system node autosupport modify -node * -state enable | ||
| + | === Backup (Snapvault) SVM / Cluster ändern === | ||
| + | * Daten mit Snapmirror an das Ziel übertragen. | ||
| + | * Snapvault Verbindung auflösen. | ||
| + | snapmirror delete -destination-path "Path" | ||
| + | * Snapmirrorupdate durchführen | ||
| + | * Snapmirror Verbindung unterbrechen. | ||
| + | snapmirror break -destination-path "Path" | ||
| + | snapmirror delete -destination-path "Path" | ||
| + | * Volumenamen ggf. ändern. | ||
| + | * Snapvaultverbindung zum neuen Volume erstellen. | ||
| + | snapmirror create -source-path "Path" -destination-path "Path" -type XDP -policy "Policyname" | ||
| + | * Snapvault-Verbindung syncronisieren. | ||
| + | snapmirror resync -destination-path "Path" | ||
| + | * Snapvault Verbindung überprüfen. | ||
| + | |||
| + | === Backuplog === | ||
| + | set -privilege diagnostic | ||
| + | volume snapshot show -fields create-time, tags "Volumename" | ||
| + | |||
| + | === Snapdrivesetting === | ||
| + | *Aktivieren des Users vsadmin | ||
| + | security login password -username vsadmin -vserver "Vservername" | ||
| + | security login unlock -username vsadmin -vserver "Vservername" | ||
| + | *Erstellen eines LIF's mit folgenden Parametern | ||
| + | network interface create -vserver "Vservername" -lif "Lifname" -role data -data-protocol none -home-node "Homenode" | ||
| + | -home-port e0e -address "IP-Adresse" -netmask "Netmask" -status-admin up -firewall-policy mgmt | ||
| + | *Firewallpoliciy erstellen. | ||
| + | system services firewall policy create -vserver "Vservername" -policy fcp2mgmt -service http -allow-list 0.0.0.0/0 | ||
| + | system services firewall policy create -vserver "Vservername" -policy fcp2mgmt -service https -allow-list 0.0.0.0/0 | ||
| + | *Es können im Snapdrive mehrere Verbindungen zu dem Vserver definiert werden. Der DNS-Name muss nicht mit dem Vservername übereinstimmen. | ||
| + | === Netzwerkscan === | ||
| + | * Überwachung starten: | ||
| + | pktt start all -i "IP-Addresse zum überwachen" -d /etc/crash | ||
| + | *Abruf der Daten | ||
| + | http://ClusterIp/spi | ||
| + | === SSL Certificate === | ||
| + | *Erweiterte Berechtigung | ||
| + | set d -c off | ||
| + | *Certificate anzeigen | ||
| + | security ssl show | ||
| + | security certificate show | ||
| + | *Certificate Details anzeigen. | ||
| + | security certificate show -instance -vserver "vServername" -common-name "Name" | ||
| + | ==== Automatisch verlängern ==== | ||
| + | *Altes Certificat löschen | ||
| + | security certificate delete -vserver "vServername" -common-name "Name" -ca "Name" -type server -serial 556D800F | ||
| + | *Certificat automatisch neu erstellen (1 Jahr) | ||
| + | ssl modify -vserver "vServerName" -server-enabled true | ||
| + | ==== Definiert verlängern ==== | ||
| + | *Altes Certificat löschen | ||
| + | security certificate delete -vserver "vServername" -common-name "Name" -ca "Name" -type server -serial 556D800F | ||
| + | *Neues definiertes Certificat erstellen. | ||
| + | security certificate create -vserver "vServername" -common-name "Name" -type server -size 2048 -country US -state "" -locality "" -organization "" -unit "" -email-addr "email@e.mail" -expire-days 3650 -protocol SSL -hash-function SHA256 | ||
| + | *Neues Certificat aktivieren. | ||
| + | ssl modify -vserver "vServername" -server-enabled true -ca "Name" -client-enabled false -serial 575A69F2 -common-name "Name" | ||
| + | === Befehle === | ||
| + | *Nodeseriennummer | ||
| + | system health controller show -instance -node "Nodename" | ||
| + | *Cluster Seriennummer | ||
| + | cluster identity show | ||
| + | *All Infos. | ||
| + | run local sysconfig -av | ||
| + | *Installationsdatum | ||
| + | system node image show -node "Nodename" | ||
| + | == Disk == | ||
| + | *Disk anzeigen. | ||
| + | storage disk show | ||
| + | Usable Disk Container Container | ||
| + | Disk Size Shelf Bay Type Type Name Owner | ||
| + | ---------------- ---------- ----- --- ------- ----------- --------- -------- | ||
| + | 2.0.0 186.1GB 0 0 SSD aggregate clust2_01_data1 | ||
| + | clust2-01 | ||
| + | 2.0.3 186.1GB 0 3 SSD spare Pool0 clust2-01 | ||
| + | 2.0.4 3.63TB 0 4 FSAS shared clust2_01_data1, clust2_01_root | ||
| + | clust2-01 | ||
| + | 2.0.6 3.63TB 0 6 FSAS shared - clust2-01 | ||
| + | * Sparedisk anzeigen, | ||
| + | storage disk storage aggregate show-spare-disks | ||
| + | |||
| + | Original Owner: clust2-01 | ||
| + | Pool0 | ||
| + | Spare Pool | ||
| + | |||
| + | Usable Physical | ||
| + | Disk Type RPM Checksum Size Size Status | ||
| + | --------------------------- ----- ------ -------------- -------- -------- -------- | ||
| + | 2.0.3 SSD - block 186.1GB 186.3GB zeroed | ||
| + | |||
| + | Original Owner: clust2-01 | ||
| + | Pool0 | ||
| + | Partitioned Spares | ||
| + | Local Local | ||
| + | Data Root Physical | ||
| + | Disk Type RPM Checksum Usable Usable Size Status | ||
| + | --------------------------- ----- ------ -------------- -------- -------- -------- -------- | ||
| + | 2.0.6 FSAS 7200 block 3.58TB 53.88GB 3.64TB zeroed | ||
| + | |||
| + | * Es werden nur Sparedisk ohne Partition angezeigt | ||
| + | storage disk show -spare | ||
| + | |||
| + | Info: This cluster has partitioned disks. To get a complete list of spare disk capacity use "storage aggregate show-spare-disks". | ||
| + | Original Owner: clust2-01 | ||
| + | Checksum Compatibility: block | ||
| + | Usable Physical | ||
| + | Disk HA Shelf Bay Chan Pool Type RPM Size Size Owner | ||
| + | --------------- ------------ ---- ------ ----- ------ -------- -------- -------- | ||
| + | 2.0.3 0a 0 3 A Pool0 SSD - 186.1GB 186.3GB clust2-01 | ||
| + | * Partition anzeigen | ||
| + | storage disk partition show | ||
| + | Usable Container Container | ||
| + | Partition Size Type Name Owner | ||
| + | ------------------------- ------- ------------- ----------------- ----------------- | ||
| + | 2.0.4.P1 3.58TB aggregate /clust2_01_data1/plex0/rg0 | ||
| + | clust2-01 | ||
| + | 2.0.4.P2 53.88GB aggregate /clust2_01_root/plex0/rg0 | ||
| + | clust2-01 | ||
| + | 2.0.6.P1 3.58TB spare Pool0 ssta-clust2-01 | ||
| + | 2.0.6.P2 53.88GB spare Pool0 ssta-clust2-01 | ||
Aktuelle Version vom 22. Oktober 2019, 08:06 Uhr
Inhaltsverzeichnis
Cluster
System
- Console Node
system node run-console "node-Name"
system node run -node "nodename"
system node run -node "nodename" -command "Befehl" bzw. ?
- SPF Mode (FC/CNA) ändern.
system node hardware unified-connect Show fcp adapter modify -node "Nodename" -adapter 0d -state down system node hardware unified-connect modify -node "Nodename" -adapter 0c -mode cna
- FC Mode (target/Initiator) anpassen.
fcp adapter modify -node "Nodename" -adapter 2a -state down system node hardware unified-connect modify -node "Nodename" -adapter 2a -type target
Wenn der Port im Cluster nicht stoppt, an der Node anmelden und folgende Befehle ausführen.
priv set advanced fcadmin offline 2a
- WWPN von LIF anpassen. (LiF muss down sein!)
vserver fcp portname set -vserver "Vserver" -lif "Lifname" -wwpn "00:00:00:00:00:00:00:00"
- Node reboot.
system node reboot -node "Nodename"
Network
- LIF erstellen.
network interface create -vserver "SVM" -lif "lif_name" -role data -data-protocol cifs -home-node "Nodename" -home-port e0d -address "IP-Adresse -netmask 255.255.255.0
- Netzwerk Failover überprüfen.
broadcast-domain show failover-groups show
- Route überprüfen!
route show route create -vserver "SVM" -destination 0.0.0.0/0 -gateway 172...
Storage
storage aggregate
- Aggregat erstellen
create -aggregate aggr1_n2 -t raid_dp -d NET-2.10 NET-2.11 NET-2.12 NET-2.13 NET-2.14
- Aggregat umbenennen
rename -aggregate aggr0_tsta_clust1_02_0 -newname aggr0_n2
- Disk zum Aggregat hinzufügen
add-disk -aggregate aggr0_n1 -d NET-1.6
- Aggregate löschen
offline -aggregate aggr1_n1 delete -aggregate aggr1_n1
Volume
- Erstellen eines Volumes
create -volume cifs_abteilungen -aggregate aggr1_n1 -size 1g -space-guarantee none
- Speicherbelegung abfargen
df -vserver "nodename" vol0 -h
- Volumegröße ändern
size -vserver "nodename" vol0 1g
- Wenn Volumes ohne den Parameter "-foreground true" gelöscht werden, dann wird der Speicher nicht sofort freigeben, sondern das Volume wird in der Recovery-Queue abgelegt.
Zum Anzeigen der Recovery-Queue:
set diagnostic -confirmations off vol recovery-queue show
Zum Leeren der Recovery-Queue:
vol recovery-queue purge -vserver "Vserver" -volume "Volname"
- Volume vom Typ TMP ändern. (Abgebrochene 7mod Transaktion)
volume show -type tmp volume transition-protect -vserver "Vserver" -volume "VolumeName" -is-enabled off
- Thin Provisioned bei allen Laufwerken aktiveren.
modify -vserver "Vservername" -volume * -space-guarantee none
LUN
- LUN Clone
volume file clone create -vserver "Vservername" -source-path "Sourcepath" -destination-path "Destinationpath" -snapshot-name "Snapshotname" lun offline -vserver "Vservername" -path "Destinationpath" lun delete -vserver "Vservername" -path "Destinationpath" -force true
Snapshot
- alle Snapshots löschen
snapshot delete -vserver "Vservername" -volume "Volumename" -snapshot * -force true
- Snapshot mit Snapmirrorverbindung löschen (höhere Berechtigung)
snapshot delete -vserver "Vserver" -volume "Volname" -snapshot "Snapname" -force true -ignore-owners true
- Automatische Snapshots abschalten.
volume modify -vserver "Vserver" -volume "Volumename" -snapshot-policy none
vServer
- vServer information
vserver show -vserver "Vservername" -instance
- vServer erstellen
vserver create -vserver "Vservername" -rootvolume sm1_root -subtype default -aggregate "Aggreatename" -rootvolume-security-style ntfs -language C.UTF-8 -snapshot-policy default -is-repository false
- Aggregate zuweisen.
vserver modify -vserver "Vservername" -aggr-list "Aggreatename","Aggreatename"
FC
- Lif erstellen
network interface create -vserver "vServer-Name" -lif "Lif-Name" -role data -data-protocol fcp -home-node "Node-Name" -home-port 1b
SSH
- PublicKey-Anmeldung erstellen.
security login create -user-or-group-name "UserName"" -application ssh -authmethod publickey -vserver "vServername" -role admin -comment "Beschreibung" security login publickey create -vserver "vServername" -username "UserName" -index 0 -publickey "Key" -comment "Beschreibung"
RSH / Firewall
Firewall Protokoll aktivieren
system services
- Vorhandene Policy klonen.
firewall policy clone -policy "Name" -vserver "vServername" -destination-policy "NewName"
- Protokoll aktivieren (z.Bsp. RSH)
firewall policy create -vserver "vServername" -policy "NewName" -service rsh -allow-list 0.0.0.0/0
- Policy auf Lokal Interface aktivieren
network interface modify -vserver "vServername" -lif "LIF-Name" -firewall-policy "NewName"
- Auflisten der Lokal Interface mit bestimmter Firewall Policy
network Interface show -firewall-policy "NewName"
Firewall Policy löschen
- Alle Einträge löschen.
security system services firewall policy delete -policy "Name" -vserver "vServername" -service *
Snapmirror
Verbindung trennen
- Destination,
snapmirror delete -destination-path "Path"
- Source
snapmirror list-destinations snapmirror release -source-path "Path" * snapmirror release -relationship-ip "ID"
- Ändern der Protection Policies beim Volume
snapmirror modify -destination-path "Volumename" -policy "Policyname"
Verbindung ändern
- Verbindung löschen.
snamirror delete -destination-path "Zielpath"
- Neue Verbindung erstellen.
snapmirror create -source-path "Quellpath" -destination-path "Zielpath" -type XDP -policy "Policy"
- Verbindung syncronisieren.
snapmirror resync -destination-path "Zielpath"
Snapmirror reverse resync
- Verbindung unterbrechen.
snapmirror break -destination-path "Zielpath"
- Verbindung am Ziel löschen.
snapmirror show snapmirror delete -destination-path "Zielpath"
- Verbindung an der Quelle löschen.
snapmirror list-destination snapmirror release -destination-path "Zielpath"
- Verbindung neu erstellen (Quellpath => alter Zielpath; Zielpath => alter Quellpath)
snapmirror create -source-path "Alter Zielpath" -destination-path "Alter Quellpath"
- Verbindung syncronisieren.
snapmirror resync -destination-path "Zielpath"
Snapshot
Policy ändern
- Snapshotpolicy beim Volume ändern
volume modify -vserver "vserver" -volume "volume" -snapshot-policy default
NFS / Ontap 8.3
Für NFS sollte eine separate SVM verwendet werden.
- Vserver erstellen.
vserver create -vserver "SVM" -subtype default -rootvolume "VServerName_root" -aggregate "Aggregatname" -rootvolume-security-style unix -language de.UTF-8 -snapshot-policy default -is-repository false
- LIF erstellen. (siehe Netzwerk)
network interface show network interface create -vserver "SVM" -lif "Nodename_nfs1" -role data -data-protocol nfs -home-node "Nodename" -home-port e0c-2 -address "IP-Addresse" -netmask 255.255.255.0 -status-admin up -failover-policy system-defined -firewall-policy data -auto-revert false
- NFS-Server erstellen.
nfs create -vserver "SVM" -access true -v3 enabled -v4.0 disabled -tcp enabled -v4.0-acl disabled -v4.0-read-delegation disabled
- Volume erstellen.
volume create -vserver "SVM" -volume "Volumename" -aggregate "Aggregatename" -size 10g -state online -type RW -policy default -unix-permissions ---rwxr-xr-x -space-guarantee volume -snapshot-policy default -foreground true -language de.UTF-8
- Namespace erstellen.
mount -vserver "SVM" -volume "Volumename" -junction-path /"Path" volume show -fields junction-path
- Berechtigung auf das Root-Verzeichnis beachten!
UNIX to NTFS
- Fehlerunterdrückung beim Zugriff über NFS auf Cifs.
vserver nfs modify -vserver "vServername" -ntfs-unix-security-ops ignore
- Userbinding Unix zu NTFS.
name-mapping create -vserver "VserverName" -direction unix-win -position 1 -pattern root -replacement "domain\\username"
- Mapping anzeigen.
vserver name-mapping show
- Überprüfen der Usereinstellung (root "0").
secd authentication show-creds -node "NodeName" -vserver "VserverName" -uid 0
- Überprüfen eines Windowsusers.
secd authentication show-creds -node "NodeName" -vserver "VserverName" -win-name "domain\username"
SNMP
system snmp community add -type ro -community-name "Name" -vserver "VSERVER" system snmp community show
CIFS
- Wenn bei alten Programmen die Dateikonvention 8.3 verwendet wird muss auf der entsprechenden SVM der Parameter gesetzt werden.
vserver cifs options modify -vserver "Vservername" -is-search-short-names-enabled true
NDMP / Backup
- Passwort für NDMP-Verbindung abfragen.
vserver ndmpd generate-password -vserver "Vservername" -user admin
Sonstig
Autosupport
- Maintenance starten.
system node autosupport invoke -node * -type all -message MAINT="Stunden"
- Maintenance beenden.
system node autosupport invoke -node * -type all -message MAINT=STOP
- Autosupport deaktivieren.
system node autosupport modify -node * -state disable
- Autosupport aktivieren.
system node autosupport modify -node * -state enable
Backup (Snapvault) SVM / Cluster ändern
- Daten mit Snapmirror an das Ziel übertragen.
- Snapvault Verbindung auflösen.
snapmirror delete -destination-path "Path"
- Snapmirrorupdate durchführen
- Snapmirror Verbindung unterbrechen.
snapmirror break -destination-path "Path" snapmirror delete -destination-path "Path"
- Volumenamen ggf. ändern.
- Snapvaultverbindung zum neuen Volume erstellen.
snapmirror create -source-path "Path" -destination-path "Path" -type XDP -policy "Policyname"
- Snapvault-Verbindung syncronisieren.
snapmirror resync -destination-path "Path"
- Snapvault Verbindung überprüfen.
Backuplog
set -privilege diagnostic volume snapshot show -fields create-time, tags "Volumename"
Snapdrivesetting
- Aktivieren des Users vsadmin
security login password -username vsadmin -vserver "Vservername" security login unlock -username vsadmin -vserver "Vservername"
- Erstellen eines LIF's mit folgenden Parametern
network interface create -vserver "Vservername" -lif "Lifname" -role data -data-protocol none -home-node "Homenode" -home-port e0e -address "IP-Adresse" -netmask "Netmask" -status-admin up -firewall-policy mgmt
- Firewallpoliciy erstellen.
system services firewall policy create -vserver "Vservername" -policy fcp2mgmt -service http -allow-list 0.0.0.0/0 system services firewall policy create -vserver "Vservername" -policy fcp2mgmt -service https -allow-list 0.0.0.0/0
- Es können im Snapdrive mehrere Verbindungen zu dem Vserver definiert werden. Der DNS-Name muss nicht mit dem Vservername übereinstimmen.
Netzwerkscan
- Überwachung starten:
pktt start all -i "IP-Addresse zum überwachen" -d /etc/crash
- Abruf der Daten
http://ClusterIp/spi
SSL Certificate
- Erweiterte Berechtigung
set d -c off
- Certificate anzeigen
security ssl show security certificate show
- Certificate Details anzeigen.
security certificate show -instance -vserver "vServername" -common-name "Name"
Automatisch verlängern
- Altes Certificat löschen
security certificate delete -vserver "vServername" -common-name "Name" -ca "Name" -type server -serial 556D800F
- Certificat automatisch neu erstellen (1 Jahr)
ssl modify -vserver "vServerName" -server-enabled true
Definiert verlängern
- Altes Certificat löschen
security certificate delete -vserver "vServername" -common-name "Name" -ca "Name" -type server -serial 556D800F
- Neues definiertes Certificat erstellen.
security certificate create -vserver "vServername" -common-name "Name" -type server -size 2048 -country US -state "" -locality "" -organization "" -unit "" -email-addr "email@e.mail" -expire-days 3650 -protocol SSL -hash-function SHA256
- Neues Certificat aktivieren.
ssl modify -vserver "vServername" -server-enabled true -ca "Name" -client-enabled false -serial 575A69F2 -common-name "Name"
Befehle
- Nodeseriennummer
system health controller show -instance -node "Nodename"
- Cluster Seriennummer
cluster identity show
- All Infos.
run local sysconfig -av
- Installationsdatum
system node image show -node "Nodename"
Disk
- Disk anzeigen.
storage disk show
Usable Disk Container Container
Disk Size Shelf Bay Type Type Name Owner
---------------- ---------- ----- --- ------- ----------- --------- --------
2.0.0 186.1GB 0 0 SSD aggregate clust2_01_data1
clust2-01
2.0.3 186.1GB 0 3 SSD spare Pool0 clust2-01
2.0.4 3.63TB 0 4 FSAS shared clust2_01_data1, clust2_01_root
clust2-01
2.0.6 3.63TB 0 6 FSAS shared - clust2-01
- Sparedisk anzeigen,
storage disk storage aggregate show-spare-disks
Original Owner: clust2-01
Pool0
Spare Pool
Usable Physical
Disk Type RPM Checksum Size Size Status
--------------------------- ----- ------ -------------- -------- -------- --------
2.0.3 SSD - block 186.1GB 186.3GB zeroed
Original Owner: clust2-01
Pool0
Partitioned Spares
Local Local
Data Root Physical
Disk Type RPM Checksum Usable Usable Size Status
--------------------------- ----- ------ -------------- -------- -------- -------- --------
2.0.6 FSAS 7200 block 3.58TB 53.88GB 3.64TB zeroed
- Es werden nur Sparedisk ohne Partition angezeigt
storage disk show -spare
Info: This cluster has partitioned disks. To get a complete list of spare disk capacity use "storage aggregate show-spare-disks".
Original Owner: clust2-01
Checksum Compatibility: block
Usable Physical
Disk HA Shelf Bay Chan Pool Type RPM Size Size Owner
--------------- ------------ ---- ------ ----- ------ -------- -------- --------
2.0.3 0a 0 3 A Pool0 SSD - 186.1GB 186.3GB clust2-01
- Partition anzeigen
storage disk partition show
Usable Container Container
Partition Size Type Name Owner
------------------------- ------- ------------- ----------------- -----------------
2.0.4.P1 3.58TB aggregate /clust2_01_data1/plex0/rg0
clust2-01
2.0.4.P2 53.88GB aggregate /clust2_01_root/plex0/rg0
clust2-01
2.0.6.P1 3.58TB spare Pool0 ssta-clust2-01
2.0.6.P2 53.88GB spare Pool0 ssta-clust2-01