This Oracle Database 12c: Clusterware & RAC Admin Accelerated training covers 8 days worth of content in only 5 days. It starts with the Oracle Database 12c: Clusterware Administration course (4 days) and then covers the Oracle RAC database architecture(4 days); learn how these products work together.

 Toc big

Learn Oracle from Oracle - Original Oracle University Seminar

In diesem Kurs werden die neuen High Availability-Features von Oracle Database 12c in Oracle Grid Infrastructure (einschließlich Clusterware, Automatic Storage Management [ASM] und Cloud FS), Oracle Real Application Clusters (RAC) und Oracle Data Guard vorgestellt. Sie machen sich mit den einzelnen neuen Features vertraut und lernen, wie Sie diese installieren, konfigurieren, verwalten und verwenden

   OAEC1oracle ptnr clr rgb

Learn Oracle from Oracle - Original Oracle University Seminar

Sollte ein Cluster-Upgrade von Version 11.2.0.1 auf 11.2.0.3 erfolgen, so ist in Verbindung mit ACFS große Vorsicht geboten. Wird nämlich das ACFS-Volume als ein geteiltes Oracle-Home für die Datenbanksoftware verwendet, so muss nach dem Upgrade der Grid-Infrastructure zusätzlich noch der  Patch 16083653: GRID INFRASTRUCTURE PATCH SET UPDATE 11.2.0.3.6 eigespielt werden, sofern ein neues Volume für das „Out of place" Upgrade des neuen Release verwendet werden soll. Wird erst die Grid-Infrastructure auf die Version 11.2.0.3 gehoben und dann versucht ein neues ACFS-Volume für das neue Datenbank-Home zu erstellen, so erscheint dann beim Mounten des Volumes folgende Fehlermeldung:

[root@rac1 ~]# /u01/app/grid/cfgtoollogs/asmca/scripts/acfs_script.sh

PRCA-1050 : Abrufen der kanonischen Form des Volume Device für Datenträgergruppe dgoraclehome und Volume volorahome nicht möglich

PRCR-1097 : Ressourcenattribut nicht gefunden: CANONICAL_VOLUME_DEVICE

Hierbei handelt es sich um die Bugs: 14102143, 14754730.

Genauere Informationen dazu finden Sie unter der Dokumenten ID 1543287.1 im My Oracle Support.

Für das neue im Juni erscheinende Buch "EIN STRUKTURIERTER EINSTIEG IN ORACLE RAC 11GR2" wird es auch ein Kapitel "Patchen und Upgrade" geben. Hier ist schon mal ein Auszug dieses Kapitels für das Einspielen des Patches 9413827 in die Grid-Infrastructure und der Datenbanksoftware. Dieser Patch ist zwingend notwendig, wenn ein Upgrade der Grid-Infrastructure von 11.2.0.1 auf 11.2.0.3 erfolgen soll und ASM als Shared-Storage verwendet wird. Dieser Patch wird in ein Cluster-System eingespielt, bei dem das Grid-Infrstructure-Home nicht geteilt, das Datenbank-Home über ein ACFS-Volume geteilt ist.

Einspielen der neuen OPatch-Version

Für das Anwenden des Patches muss die neue OPatch-Version eingespielt werden. Hierfür wird der vorhandene OPatch-Ordner der Softwareinstallationen der Knoten durch den OPatch-Ordner des Patches 6880880 ersetzt. In diesem Fall führe ich es für die Grid-Infrastructure-Installationen der Knoten und einmalig für das geteilte ACFS-Laufwerk der Datenbankinstallation aus.

OPatch auf Knoten1:

[grid@rac1 ~]$ mv /u01/app/11.2.0/grid/OPatch/ /u01/app/11.2.0/grid/OPatchOld
[grid@rac1 ~]$ cp -r /mnt/cdrom/p6880880_112000_Linux-x86-64/OPatch/ /u01/app/11.2.0/grid/OPatch/

OPatch auf Knoten2:

[grid@rac2 ~]$ mv /u01/app/11.2.0/grid/OPatch/ /u01/app/11.2.0/grid/OPatchOld
[grid@rac2 ~]$ cp -r /mnt/cdrom/p6880880_112000_Linux-x86-64/OPatch/ /u01/app/11.2.0/grid/OPatch/

OPatch für die geteilte Datenbanksoftware:

[oracle@rac1 ~]$ mv /u01/app/oracle/product/11.2.0/dbhome_1/OPatch/ /u01/app/oracle/product/11.2.0/dbhome_1/OPatchOld
[oracle@rac1 ~]$ cp -r /mnt/cdrom/p6880880_112000_Linux-x86-64/OPatch/ /u01/app/oracle/product/11.2.0/dbhome_1/OPatch/

Bevor der Patch eingespielt wird, sollte im Vorfeld überprüft werden, ob das Inventarverzeichnis der Softwareinstallation korrekt konfiguriert ist. Dieses wird über die Inventarabfrage mit OPatch erreicht. Sollten bei dieser Abfrage Fehler auftauchen, müssen diese im Vorfeld bereinigt werden.

Abfrage der Grid-Infrastructure:

[grid@rac1 ~]$ export PATH=$PATH:/u01/app/11.2.0/grid/OPatch/
[grid@rac1 ~]$ opatch lsinventory -detail -oh /u01/app/11.2.0/grid

[grid@rac2 ~]$ export PATH=$PATH:/u01/app/11.2.0/grid/OPatch/
[grid@rac2 ~]$ opatch lsinventory -detail -oh /u01/app/11.2.0/grid

Abfrage der Datenbanksoftwareinstallation:

[oracle@rac1 ~]$ export PATH=$PATH: /u01/app/oracle/product/11.2.0/dbhome_1/OPatch/
[oracle@rac1 ~]$ opatch lsinventory -detail -oh /u01/app/oracle/product/11.2.0/dbhome_1


Patchen der Grid-Infrastructure

Für das Einspielen des Patches müssen im ersten Schritt alle Datenbankressourcen, die durch CRS verwaltet werden, heruntergefahren werden. Hierbei kommt es nun darauf an, ob das Grid-Infrastructure-Softwareverzeichnis geteilt oder auf jedem Knoten vorhanden ist. Ist es geteilt, so müssen die CRS verwalteten Ressourcen auf allen Knoten heruntergefahren werden.

Schritt 1:


Da in dem aktuellen Fall ist das Grid-Infrastructure-Softwareverzeichnis nicht geteilt, so dass die CRS verwalteten Datenbank Ressourcen erst einmal nur auf dem ersten Knoten heruntergefahren werden müssen. Dieses Herunterfahren wird über srvctl stop home erreicht. Durch Angabe einer Statusdatei wird der Status der einzelnen Komponenten abgespeichert und beim späteren Starten wieder auf diesen Status gesetzt.

Beenden der CRS verwalteten Datenbankressourcen:
[oracle@rac1 ~]$ su -
Passwort:
[root@rac1 ~]# . oraenv
ORACLE_SID = [root] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is /u01/app/grid
[root@rac1 ~]# srvctl stop home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac1 -s /u01/app/oracle/orstat.txt

Schritt 2:


Im nächsten Schritt werden die Datenbanksoftwarekonfigurationseinstellungen gesichert. Nach der README.TXT des Patches kommt dieser Schritt erst nach der Ausführung des Skriptes rootcrs.pl. Da das Skript rootcrs.pl aber auf dem Knoten den gesamten Cluster-Stack herunterfährt, wird natürlich auch das ACFS-Volume der Datenbanksoftware abgehängt, wodurch dieser Schritt nicht mehr möglich wäre. Hierfür wird das Skript prepatch.sh aus dem Ordner custom/scripts des Patches ausgeführt.

Sichern der RDBMS-Home Konfiguration:
[root@rac1 ~]# cd /mnt/cdrom/p9413827_112010_Linux-x86-64/9413827
[root@rac1 9413827]# custom/scripts/prepatch.sh -dbhome /u01/app/oracle/product/11.2.0/dbhome_1
custom/scripts/prepatch.sh completed successfully.

Schritt 3:

Nach dem Sichern der RDBMS-Home Konfiguration müssen gesperrte Dateien der Grid-Infrastructure mit dem Skript rootcrs.pl entsperrt werden, bzw. Dateien, auf die derzeit nur der privilegierte Benutzer root Zugriff hat, für das Patchen unter dem Benutzer grid freigegeben werden. Zusätzlich fährt dieses Skript den Cluster-Stack inklusive des High Availability Service auf dem Knoten herunter. Im aktuellen Fall wird dieses Skript auf dem ersten Knoten unter dem privilegierten Benutzer root für das Rolling-Verfahren ausgeführt.

Entsperren von geschützten Dateien und Herunterfahren der Cluster Ready Services:
[root@rac1 9413827]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl -unlock
2013-05-02 12:11:59: Parsing the host name
2013-05-02 12:11:59: Checking for super user privileges
2013-05-02 12:11:59: User has super user privileges
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
CRS-2791: Herunterfahren der von Oracle High Availability Services verwalteten Ressourcen auf "rac1" wird gestartet
CRS-2673: Versuch, "ora.crsd" auf "rac1" zu stoppen
CRS-2790: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac1' wird gestartet
CRS-2673: Versuch, "ora.LISTENER.lsnr" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.LISTENER_SCAN2.lsnr" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.DGOCRVOTING.dg" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.registry.acfs" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.DGORACLEDB.dg" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.dgoraclehome.volorahome.acfs" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.LISTENER_SCAN3.lsnr" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.rac1.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER_SCAN2.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.scan2.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.registry.acfs" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.LISTENER_SCAN3.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.scan3.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.rac1.vip" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.rac1.vip" auf "rac2" zu starten
CRS-2677: Stoppen von "ora.scan2.vip" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.scan2.vip" auf "rac2" zu starten
CRS-2677: Stoppen von "ora.DGORACLEDB.dg" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.scan3.vip" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.scan3.vip" auf "rac2" zu starten
CRS-2676: Starten von "ora.rac1.vip" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.dgoraclehome.volorahome.acfs" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.DGORACLEHOME.dg" auf "rac1" zu stoppen
CRS-2676: Starten von "ora.scan2.vip" auf "rac2" erfolgreich
CRS-2672: Versuch, "ora.LISTENER_SCAN2.lsnr" auf "rac2" zu starten
CRS-2676: Starten von "ora.scan3.vip" auf "rac2" erfolgreich
CRS-2672: Versuch, "ora.LISTENER_SCAN3.lsnr" auf "rac2" zu starten
CRS-2676: Starten von "ora.LISTENER_SCAN2.lsnr" auf "rac2" erfolgreich
CRS-2676: Starten von "ora.LISTENER_SCAN3.lsnr" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.DGOCRVOTING.dg" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.DGORACLEHOME.dg" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.asm" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.asm" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.eons" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.ons" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.ons" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.net1.network" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.net1.network" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.eons" auf "rac1" erfolgreich
CRS-2792: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac1' ist abgeschlossen
CRS-2677: Stoppen von "ora.crsd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.mdnsd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.gpnpd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.cssdmonitor" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.ctssd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.evmd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.asm" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.drivers.acfs" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.cssdmonitor" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.mdnsd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.gpnpd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.evmd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.ctssd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.drivers.acfs" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.asm" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.cssd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.cssd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.diskmon" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.gipcd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.gipcd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.diskmon" auf "rac1" erfolgreich
CRS-2793: Herunterfahren der von Oracle High Availability Services verwalteten Ressourcen auf "rac1" ist abgeschlossen
CRS-4133: Oracle High Availability Services has been stopped.
Successfully unlock /u01/app/11.2.0/grid

Schritt 4:

Ist das Skript rootcrs.pl für das Entsperren erfolgreich abgelaufen, kann nun der Patch-Vorgang für die Grid-Infrastructure auf dem ersten Knoten durchgeführt werden. Dafür wird zuerst unter dem Besitzer der Grid-Infrastructure-Installation grid die PATH-Variable auf den Ordner der OPatch-Installation gesetzt. Darauffolgend wird in den Ordner des Patches gewechselt, aus dem dann der Patch-Vorgang gestartet wird.

[grid@rac1 ~]$ cd /mnt/cdrom/p9413827_112010_Linux-x86-64/9413827
[grid@rac1 9413827]$ export PATH=$PATH:/u01/app/11.2.0/grid/OPatch/
[grid@rac1 9413827]$ opatch napply -local -oh /u01/app/11.2.0/grid -id 9413827

Oracle Interim Patch-Installationsprogramm Version 11.2.0.3.4
Copyright (c) 2012, Oracle Corporation. All rights reserved. Alle Rechte vorbehalten.


Oracle Home : /u01/app/11.2.0/grid
Central Inventory : /u01/app/oraInventory
from : /u01/app/11.2.0/grid/oraInst.loc
OPatch version : 11.2.0.3.4
OUI version : 11.2.0.1.0
Log file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch2013-05-04_07-16-33AM_1.log

Verifying environment and performing prerequisite checks...
OPatch continues with these patches: 9413827

Möchten Sie fortfahren? [y|n]
y
User Responded with: Y
All checks passed.
Geben Sie Ihre E-Mail-Adresse an, um über Sicherheitsrisiken informiert zu
werden, und installieren und starten Sie Oracle Configuration Manager. Am
einfachsten ist es, wenn Sie Ihre E-Mail-Adresse/Ihren Benutzernamen für My
Oracle Support verwenden.
Weitere Informationen finden Sie unter
http://www.oracle.com/support/policies.html.
E-Mail-Adresse/Benutzername:

Sie haben keine E-Mail-Adresse für Benachrichtigungen zu Sicherheitsrisiken
angegeben.
Sind Sie sicher, dass Sie nicht über kritische Sicherheitsrisiken informiert werden möchten ([J]a, [N]ein) [N]: j

Fahren Sie Oracle Instances herunter, die aus diesem ORACLE_HOME auf dem lokalen System gestartet werden.
(Oracle-Standardverzeichnis = '/u01/app/11.2.0/grid')

Ist das lokale System für das Patching bereit? [y|n]
y
User Responded with: Y
Backing up files...
Applying interim patch '9413827' to OH '/u01/app/11.2.0/grid'

Patching von Komponente oracle.crs, 11.2.0.1.0...

Verifying the update...
Patch 9413827 successfully applied.

OPatch succeeded.

Schritt 5:

Nach Abschluss der Patch-Installation müssen Patch spezifische Aktionen ausgeführt werden. Speziell bei diesem Patch müssen Schreibberechtigungen auf die Verzeichnisse /u01/app/11.2.0/grid/log/rac1/agent und /u01/app/11.2.0/grid/log/rac1/agent/crsd der Grid-Infrastructure-Installation vergeben werden.

Ausführung Patch-spezifischer Aktionen:
[root@rac1 ~]# chmod +w /u01/app/11.2.0/grid/log/rac1/agent
[root@rac1 ~]# chmod +w /u01/app/11.2.0/grid/log/rac1/agent/crsd

Schritt 6:

Als nächstes werden auf dem Knoten die notwendigen Dateien der Grid-Infrastructure über das Skript rootcrs.pl wieder gesperrt, bzw. die entsprechenden Berechtigungen zurückgesetzt. Des Weiteren startet dieses Skript wieder den Cluster-Stack auf dem Knoten.

Zurücksetzen der Sicherheitseinstellung und Starten der Clusterware:
[root@rac1 ~]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl -patch
2013-05-02 12:27:06: Parsing the host name
2013-05-02 12:27:06: Checking for super user privileges
2013-05-02 12:27:06: User has super user privileges
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
CRS-4123: Oracle High Availability Services has been started.

Schritt 7:

Zum Schluss werden die durch die Cluster Ready Services verwalteten Datenbankressourcen auf Basis der Statusdatei wieder gestartet und der Patch-Vorgang der Grid-Infrastructure dieses Knotens ist abgeschlossen.

Starten der von CRS verwalteten Ressourcen:
[root@rac1 ~]# srvctl start home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac1 -s /u01/app/oracle/orstat.txt

Nachdem die Grid-Infrastructure des ersten Knotens gepatcht ist, wird der gleiche Vorgang für alle weiteren Knoten wiederholt.

[root@rac2 ~]# srvctl stop home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac2 -s /u01/app/oracle/orstat.txt

[root@rac2 ~]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl –unlock

[grid@rac2 ~]$ export PATH=$PATH:/u01/app/11.2.0/grid/OPatch/
[grid@rac2 ~]$ cd /mnt/cdrom/p9413827_112010_Linux-x86-64/9413827
[grid@rac2 9413827]$ opatch napply -local -oh /u01/app/11.2.0/grid -id 9413827

[root@rac2 ~]# chmod +w /u01/app/11.2.0/grid/log/rac2/agent
[root@rac2 ~]# chmod +w /u01/app/11.2.0/grid/log/rac2/agent/crsd
[root@rac2 ~]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl –patch
[root@rac2 ~]# srvctl start home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac2 -s /u01/app/oracle/orstat.txt

Nach Abschluss des Patch-Vorgangs auf dem zweiten Knoten, ist der Patch-Vorhang in Form eines Rolling-Patching durchgeführt worden.

Eine Überprüfung der aktuellen Version kann dann mit crsctl query crs activeversion erfolgen.

[root@rac1 ~]# crsctl query crs activeversion
Oracle Clusterware active version on the cluster is [11.2.0.3.0]

Patchen der Datenbanksoftware

Da in der aktuellen Installation ein geteiltes Datenbanksoftwareverzeichnis unter ACFS verwendet wird, besteht hier nicht die Möglichkeit den Patch über das Rolling-Verfahren einzuspielen, da alle Instanzen der Datenbank über dieses Datenbank-Home Verzeichnis gestartet sind.

Schritt 1:
Hierbei müssen alle Ressourcen, die aus diesem Datenbank-Home Verzeichnis gestartet sind angehalten werden, wodurch das Gesamtsystem während dieser Zeit nicht zur Verfügung steht.

Beenden der CRS verwalteten Datenbankressourcen auf allen Knoten:
[root@rac1 ~]# srvctl stop home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac1 -s /u01/app/oracle/orstat1.txt
[root@rac1 ~]# srvctl stop home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac2 -s /u01/app/oracle/orstat2.txt

Schritt 2:
Nach Beendigung der Datenbankressourcen kann mit dem Patch-Vorgang begonnen werden. Hierbei wird unter dem Datenbanksoftwarebesitzer oracle in das Verzeichnis des Patches gewechselt und die PATH-Variable auf den OPatch-Ordner gesetzt. Ist dieses erfolgt, wird OPatch für die Installation des Patches für die Datenbanksoftware gestartet.

[oracle@rac1 ~]$ export PATH=$PATH:/u01/app/oracle/product/11.2.0/dbhome_1/OPatch
[oracle@rac1 ~]$ cd /mnt/cdrom/p9413827_112010_Linux-x86-64/9413827
[oracle@rac1 9413827]$ opatch napply custom/server/ -local -oh /u01/app/oracle/product/11.2.0/dbhome_1 -id 9413827

Oracle Interim Patch-Installationsprogramm Version 11.2.0.3.4
Copyright (c) 2012, Oracle Corporation. All rights reserved. Alle Rechte vorbehalten.


Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1
Central Inventory : /u01/app/oraInventory
from : /u01/app/oracle/product/11.2.0/dbhome_1/oraInst.loc
OPatch version : 11.2.0.3.4
OUI version : 11.2.0.1.0
Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch2013-05-02_12-50-00PM_1.log

Verifying environment and performing prerequisite checks...
OPatch continues with these patches: 9413827

Möchten Sie fortfahren? [y|n]
y
User Responded with: Y
All checks passed.
Geben Sie Ihre E-Mail-Adresse an, um über Sicherheitsrisiken informiert zu
werden, und installieren und starten Sie Oracle Configuration Manager. Am
einfachsten ist es, wenn Sie Ihre E-Mail-Adresse/Ihren Benutzernamen für My
Oracle Support verwenden.
Weitere Informationen finden Sie unter
http://www.oracle.com/support/policies.html.
E-Mail-Adresse/Benutzername:

Sie haben keine E-Mail-Adresse für Benachrichtigungen zu Sicherheitsrisiken
angegeben.
Sind Sie sicher, dass Sie nicht über kritische Sicherheitsrisiken informiert werden möchten ([J]a, [N]ein) [N]: j

Fahren Sie Oracle Instances herunter, die aus diesem ORACLE_HOME auf dem lokalen System gestartet werden.
(Oracle-Standardverzeichnis = '/u01/app/oracle/product/11.2.0/dbhome_1')


Ist das lokale System für das Patching bereit? [y|n]
y
User Responded with: Y
Backing up files...
Applying interim patch '9413827' to OH '/u01/app/oracle/product/11.2.0/dbhome_1'

Patching von Komponente oracle.rdbms, 11.2.0.1.0...

Verifying the update...
Patch 9413827 successfully applied.
Log file location: /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch2013-05-02_12-50-00PM_1.log

OPatch succeeded.

Schritt 3:
Nach Anwendung des Patches auf die Datenbanksoftwareinstallation müssen über das Skript postpatch.sh auf die gepatchten Dateien noch Konfigurationseinstellungen gesetzt werden.

[oracle@rac1 9413827]$ custom/server/9413827/custom/scripts/postpatch.sh -dbhome /u01/app/oracle/product/11.2.0/dbhome_1
Reading /u01/app/oracle/product/11.2.0/dbhome_1/install/params.ora..
Reading /u01/app/oracle/product/11.2.0/dbhome_1/install/params.ora..
Parsing file /u01/app/oracle/product/11.2.0/dbhome_1/bin/racgwrap
Parsing file /u01/app/oracle/product/11.2.0/dbhome_1/bin/srvctl
Parsing file /u01/app/oracle/product/11.2.0/dbhome_1/bin/srvconfig
Parsing file /u01/app/oracle/product/11.2.0/dbhome_1/bin/cluvfy
Verifying file /u01/app/oracle/product/11.2.0/dbhome_1/bin/racgwrap
Verifying file /u01/app/oracle/product/11.2.0/dbhome_1/bin/srvctl
Verifying file /u01/app/oracle/product/11.2.0/dbhome_1/bin/srvconfig
Verifying file /u01/app/oracle/product/11.2.0/dbhome_1/bin/cluvfy
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/racgwrap
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/srvctl
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/srvconfig
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/cluvfy
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/racgmain
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/racgeut
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/diskmon.bin
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/lsnodes
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/osdbagrp
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/rawutl
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/srvm/admin/ractrans
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/srvm/admin/getcrshome
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/gnsd
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/bin/crsdiag.pl
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libhasgen11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libclsra11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libdbcfg11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libocr11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libocrb11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libocrutl11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libuini11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/librdjni11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libgns11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libgnsjni11.so
Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libagfw11.so

Schritt 4:
Zum Schluss können die Datenbankressourcen wieder gestartet werden.

Starten der CRS verwalteten Datenbankressourcen auf allen Knoten:
[root@rac1 ~]# srvctl start home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac1 -s /u01/app/oracle/orstat1.txt
[root@rac1 ~]# srvctl start home -o /u01/app/oracle/product/11.2.0/dbhome_1 -n rac2 -s /u01/app/oracle/orstat2.txt

Aufgrund von Hardwareproblemen sollte ein Knoten einer RAC-Datenbank unter 11gR2 mit ASM neu aufgesetzt werden. Hierbei wurde die Datenbankinstanz sowie die Grid-Infrastruktur über die Standardentfernungsmethoden aus dem Cluster herausgenommen und der Knoten auf einer neuen Hardware aufgesetzt. Die Ausführung von Cluster Verfy cluvfy für die Vorprüfung für das Hinzufügen des Knotens verlief erfolgreich, so dass nun die Installation der Clusterware auf diesen Knoten mit dem Skript addNode.sh gestartet werden konnte.

[grid@rac1 ~]$ cluvfy stage -pre  nodeadd -n rac3

Vorprüfungen für Hinzufügen von Knoten werden ausgeführt.

Knotenzugänglichkeit wird geprüft...
Prüfung auf Knotenzugänglichkeit von Knoten "rac1" erfolgreich

Benutzeräquivalenz wird überprüft...
Prüfung auf Benutzeräquivalenz erfolgreich für Benutzer "grid"

Knotenkonnektivität wird geprüft...

Hosts-Konfigurationsdatei wird geprüft ...

Prüfung der Hosts-Konfigurationsdatei erfolgreich

Prüfung: Knotenkonnektivität für Schnittstelle "eth0"
Prüfung auf Knotenkonnektivität für Schnittstelle "eth0" erfolgreich

Prüfung auf Knotenkonnektivität erfolgreich

CRS-Integrität wird überprüft...

CRS-Integritätsprüfung erfolgreich

Freigegebene Ressourcen werden geprüft...
Prüfung von freigegebenen Ressourcen für Hinzufügen von Knoten erfolgreich

Knotenkonnektivität wird geprüft...

Hosts-Konfigurationsdatei wird geprüft ...

Prüfung der Hosts-Konfigurationsdatei erfolgreich

Prüfung auf Knotenkonnektivität für Subnet "192.168.0.0" mit Knoten rac1,rac2,rac3 erfolgreich
Prüfung der TCP-Konnektivität für Subnet "192.168.0.0" erfolgreich

Prüfung auf Knotenkonnektivität für Subnet "192.168.1.0" mit Knoten rac1,rac2,rac3 erfolgreich
Prüfung der TCP-Konnektivität für Subnet "192.168.1.0" erfolgreich

Prüfung auf Knotenkonnektivität für Subnet "192.168.3.0" mit Knoten rac1,rac2,rac3 erfolgreich
Prüfung der TCP-Konnektivität für Subnet "192.168.3.0" erfolgreich

Folgende Schnittstellen wurden auf Subnet "192.168.0.0" gefunden, die für das VIP in Frage kommen:
rac1 eth0:192.168.0.161 eth0:192.168.0.181 eth0:192.168.0.182 eth0:192.168.0.171
rac2 eth0:192.168.0.162 eth0:192.168.0.183 eth0:192.168.0.172
rac3 eth0:192.168.0.163

Folgende Schnittstellen wurden auf Subnet "192.168.1.0" gefunden, die für ein Private Interconnect in Frage kommen:
rac1 eth1:192.168.1.161
rac2 eth1:192.168.1.162
rac3 eth1:192.168.1.163

Folgende Schnittstellen wurden auf Subnet "192.168.3.0" gefunden, die für ein Private Interconnect in Frage kommen:
rac1 eth2:192.168.3.161
rac2 eth2:192.168.3.162
rac3 eth2:192.168.3.163

Prüfung auf Knotenkonnektivität erfolgreich

Gesamter Speicher Überprüfung erfolgreich
Verfügbarer Speicher Überprüfung erfolgreich
Swap-Bereich Überprüfung erfolgreich
Freier Plattenspeicher Überprüfung erfolgreich für "rac3:/tmp"
Benutzerexistenz Überprüfung erfolgreich für "grid"
Runlevel Überprüfung erfolgreich
Reelle Grenzwerte Überprüfung erfolgreich für "Maximal geöffnete Dateideskriptoren"
Nicht reelle Grenzwerte Überprüfung erfolgreich für "Maximal geöffnete Dateideskriptoren"
Reelle Grenzwerte Überprüfung erfolgreich für "maximale Anzahl Benutzerprozesse"
Nicht reelle Grenzwerte Überprüfung erfolgreich für "maximale Anzahl Benutzerprozesse"
Systemarchitektur Überprüfung erfolgreich
Kernel-Version Überprüfung erfolgreich
Kernel-Parameter Überprüfung erfolgreich für "semmsl"
Kernel-Parameter Überprüfung erfolgreich für "semmns"
Kernel-Parameter Überprüfung erfolgreich für "semopm"
Kernel-Parameter Überprüfung erfolgreich für "semmni"
Kernel-Parameter Überprüfung erfolgreich für "shmmax"
Kernel-Parameter Überprüfung erfolgreich für "shmmni"
Kernel-Parameter Überprüfung erfolgreich für "shmall"
Kernel-Parameter Überprüfung erfolgreich für "file-max"
Kernel-Parameter Überprüfung erfolgreich für "ip_local_port_range"
Kernel-Parameter Überprüfung erfolgreich für "rmem_default"
Kernel-Parameter Überprüfung erfolgreich für "rmem_max"
Kernel-Parameter Überprüfung erfolgreich für "wmem_default"
Kernel-Parameter Überprüfung erfolgreich für "wmem_max"
Kernel-Parameter Überprüfung erfolgreich für "aio-max-nr"
Package-Existenz Überprüfung erfolgreich für "make-3.81"
Package-Existenz Überprüfung erfolgreich für "binutils-2.17.50.0.6"
Package-Existenz Überprüfung erfolgreich für "gcc-4.1.2"
Package-Existenz Überprüfung erfolgreich für "libaio-0.3.106 (i386)"
Package-Existenz Überprüfung erfolgreich für "libaio-0.3.106 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "glibc-2.5-24 (i686)"
Package-Existenz Überprüfung erfolgreich für "glibc-2.5-24 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "compat-libstdc++-33-3.2.3 (i386)"
Package-Existenz Überprüfung erfolgreich für "compat-libstdc++-33-3.2.3 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "elfutils-libelf-0.125 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "elfutils-libelf-devel-0.125"
Package-Existenz Überprüfung erfolgreich für "glibc-common-2.5"
Package-Existenz Überprüfung erfolgreich für "glibc-devel-2.5 (i386)"
Package-Existenz Überprüfung erfolgreich für "glibc-devel-2.5 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "glibc-headers-2.5"
Package-Existenz Überprüfung erfolgreich für "gcc-c++-4.1.2"
Package-Existenz Überprüfung erfolgreich für "libaio-devel-0.3.106 (i386)"
Package-Existenz Überprüfung erfolgreich für "libaio-devel-0.3.106 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "libgcc-4.1.2 (i386)"
Package-Existenz Überprüfung erfolgreich für "libgcc-4.1.2 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "libstdc++-4.1.2 (i386)"
Package-Existenz Überprüfung erfolgreich für "libstdc++-4.1.2 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "libstdc++-devel-4.1.2 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "sysstat-7.0.2"
Package-Existenz Überprüfung erfolgreich für "unixODBC-2.2.11 (i386)"
Package-Existenz Überprüfung erfolgreich für "unixODBC-2.2.11 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "unixODBC-devel-2.2.11 (i386)"
Package-Existenz Überprüfung erfolgreich für "unixODBC-devel-2.2.11 (x86_64)"
Package-Existenz Überprüfung erfolgreich für "ksh-20060214"
Überprüfung auf mehrere Benutzer mit UID-Wert 0 erfolgreich

Benutzer "grid" ist nicht Teil der Gruppe "root". Prüfung erfolgreich

Uhrensynchronisationsprüfungen mit dem Network Time Protocol (NTP) werden gestartet...

NTP-Konfigurationsdateiprüfung gestartet...
Konfigurationsdatei für Network Time Protocol Configuration (NTP) auf keinem der Knoten gefunden.
Oracle Cluster Time Synchronization Service (CTSS) kann anstelle von NTP für die Zeitsynchronisation
auf den Cluster-Knoten verwendet werden

Uhrensynchronisationsprüfung mit Network Time Protocol (NTP) erfolgreich

Vorprüfung für Hinzufügen von Knoten war erfolgreich.

 

  • Leider schlug die Ausführung des Skriptes addNode.sh für das Hinzufügen des Knotens rac3 fehl:

 

[grid@rac1 ~]$ cd /u01/app/11.2.0/grid/oui/bin/
[grid@rac1 bin]$ ./addNode.sh -silent "CLUSTER_NEW_NODES={rac3}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={rac3-vip}"
Oracle Universal Installer wird gestartet...

Swap-Speicher wird geprüft: muss größer sein als 500 MB.   Tatsächlich 10111 MB    Erfolgreich
Oracle Universal Installer, Version 11.2.0.1.0 Production
Copyright (C) 1999, 2009, Oracle. All rights reserved. Alle Rechte vorbehalten.

Es wird getestet, ob die Knoten rac2,rac3,rac3 verfügbar sind
............................................................... 100% fertig.

Fehler beim Abrufen von Knotennummern der bestehenden Knoten aufgetreten. Prüfen Sie,
ob das Clusterware-Standardverzeichnis richtig konfiguriert ist.

SEVERE:Fehler beim Abrufen von Knotennummern der bestehenden Knoten aufgetreten.
Prüfen Sie, ob das Clusterware-Standardverzeichnis richtig konfiguriert ist.

 

  • Nach einigen Recherchen fand ich heraus, dass leider beim ersten Entfernen des Knotens rac3 das Inventoryverzeichnis nicht richtig aktualisiert wurde, denn hier verblieb in der Datei oraclehomeproperties.xml der noch vorhandenen Knoten in der Knotenliste NODE_LIST der Knoten rac3.

 

[grid@rac1 ~]$ cd /u01/app/11.2.0/grid/inventory/ContentsXML
[grid@rac1 ContentsXML]$ ls
comps.xml  config.xml  ConfigXML  libs.xml  oraclehomeproperties.xml
[grid@rac1 ContentsXML]$ vi oraclehomeproperties.xml


<!-- Copyright (c) 1999, 2009, Oracle. All rights reserved. -->
<!-- Do not modify the contents of this file by hand. --><ORACLEHOME_INFO>
<GUID>1639211966#.545448520</GUID>
<HOME CRS="T"/>
<ARU_PLATFORM_INFO>
<ARU_ID>226</ARU_ID>
<ARU_ID_DESCRIPTION>Linux x86-64</ARU_ID_DESCRIPTION>
</ARU_PLATFORM_INFO>
<CLUSTER_INFO>
<LOCAL_NODE NAME="rac1"/>

<NODE_LIST><NODE NAME="rac1"/><NODE NAME="rac2"/><NODE NAME="rac3"/></NODE_LIST></CLUSTER_INFO>
<PROPERTY_LIST>
<PROPERTY NAME="ARCHITECTURE" VAL="64"/><PROPERTY NAME="ORACLE_BASE" VAL="/u01/app/grid"/></PROPERTY_LIST>
</ORACLEHOME_INFO>

 

  • Also löschte ich den alten Knoten rac3 aus der Knotenliste dieser Datei auf allen übriggebliebenden Knoten und startete das Skript addNode.sh erneut, welches nun erfogreich durchlief.

 

[grid@rac1 ContentsXML]$ cd /u01/app/11.2.0/grid/oui/bin/
[grid@rac1 bin]$ ./addNode.sh -silent "CLUSTER_NEW_NODES={rac3}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={rac3-vip}"
Oracle Universal Installer wird gestartet...

Swap-Speicher wird geprüft: muss größer sein als 500 MB.   Tatsächlich 9631 MB    Erfolgreich
Oracle Universal Installer, Version 11.2.0.1.0 Production
Copyright (C) 1999, 2009, Oracle. All rights reserved. Alle Rechte vorbehalten.

Es wird getestet, ob die Knoten rac2,rac3 verfügbar sind
............................................................... 100% fertig.

..
-----------------------------------------------------------------------------
Zusammenfassung für Hinzufügen von Cluster-Knoten
Globale Einstellungen
Quelle: /u01/app/11.2.0/grid
Neue Knoten
Speicherbedarf
Neue Knoten
rac3
/: Erforderlich 6.91GB: Verfügbar 69.70GB
Installierte Produkte
Produktnamen
Oracle Grid Infrastructure 11.2.0.1.0
Sun JDK 1.5.0.17.0
Installer SDK Component 11.2.0.1.0
Oracle One-Off Patch Installer 11.2.0.0.2
Oracle Universal Installer 11.2.0.1.0
Oracle Configuration Manager Deconfiguration 10.3.1.0.0
Enterprise Manager Common Core Files 10.2.0.4.2
Oracle DBCA Deconfiguration 11.2.0.1.0
Oracle RAC Deconfiguration 11.2.0.1.0
Oracle Quality of Service Management (Server) 11.2.0.1.0
Installation Plugin Files 11.2.0.1.0
Universal Storage Manager Files 11.2.0.1.0
Oracle Text Required Support Files 11.2.0.1.0
Automatic Storage Management Assistant 11.2.0.1.0
Oracle Database 11g Multimedia Files 11.2.0.1.0
Oracle Multimedia Java Advanced Imaging 11.2.0.1.0
Oracle Globalization Support 11.2.0.1.0
Oracle Multimedia Locator RDBMS Files 11.2.0.1.0
Oracle Core Required Support Files 11.2.0.1.0
Bali Share 1.1.18.0.0
Oracle Database Deconfiguration 11.2.0.1.0
Oracle Quality of Service Management (Client) 11.2.0.1.0
Expat libraries 2.0.1.0.1
Oracle Containers for Java 11.2.0.1.0
Perl Modules 5.10.0.0.1
Secure Socket Layer 11.2.0.1.0
Oracle JDBC/OCI Instant Client 11.2.0.1.0
Oracle Multimedia Client Option 11.2.0.1.0
LDAP Required Support Files 11.2.0.1.0
Character Set Migration Utility 11.2.0.1.0
Perl Interpreter 5.10.0.0.1
PL/SQL Embedded Gateway 11.2.0.1.0
OLAP SQL Scripts 11.2.0.1.0
Database SQL Scripts 11.2.0.1.0
Oracle Extended Windowing Toolkit 3.4.47.0.0
SSL Required Support Files for InstantClient 11.2.0.1.0
SQL*Plus Files for Instant Client 11.2.0.1.0
Oracle Net Required Support Files 11.2.0.1.0
Oracle Database User Interface 2.2.13.0.0
RDBMS Required Support Files for Instant Client 11.2.0.1.0
Enterprise Manager Minimal Integration 11.2.0.1.0
XML Parser for Java 11.2.0.1.0
Oracle Security Developer Tools 11.2.0.1.0
Oracle Wallet Manager 11.2.0.1.0
Enterprise Manager plugin Common Files 11.2.0.1.0
Platform Required Support Files 11.2.0.1.0
Oracle JFC Extended Windowing Toolkit 4.2.36.0.0
RDBMS Required Support Files 11.2.0.1.0
Oracle Ice Browser 5.2.3.6.0
Oracle Help For Java 4.2.9.0.0
Enterprise Manager Common Files 10.2.0.4.2
Deinstallation Tool 11.2.0.1.0
Oracle Java Client 11.2.0.1.0
Cluster Verification Utility Files 11.2.0.1.0
Oracle Notification Service (eONS) 11.2.0.1.0
Oracle LDAP administration 11.2.0.1.0
Cluster Verification Utility Common Files 11.2.0.1.0
Oracle Clusterware RDBMS Files 11.2.0.1.0
Oracle Locale Builder 11.2.0.1.0
Oracle Globalization Support 11.2.0.1.0
Buildtools Common Files 11.2.0.1.0
Oracle RAC Required Support Files-HAS 11.2.0.1.0
SQL*Plus Required Support Files 11.2.0.1.0
XDK Required Support Files 11.2.0.1.0
Agent Required Support Files 10.2.0.4.2
Parser Generator Required Support Files 11.2.0.1.0
Precompiler Required Support Files 11.2.0.1.0
Installation Common Files 11.2.0.1.0
Required Support Files 11.2.0.1.0
Oracle JDBC/THIN Interfaces 11.2.0.1.0
Oracle Multimedia Locator 11.2.0.1.0
Oracle Multimedia 11.2.0.1.0
HAS Common Files 11.2.0.1.0
Assistant Common Files 11.2.0.1.0
PL/SQL 11.2.0.1.0
HAS Files for DB 11.2.0.1.0
Oracle Recovery Manager 11.2.0.1.0
Oracle Database Utilities 11.2.0.1.0
Oracle Notification Service 11.2.0.0.0
SQL*Plus 11.2.0.1.0
Oracle Netca Client 11.2.0.1.0
Oracle Net 11.2.0.1.0
Oracle JVM 11.2.0.1.0
Oracle Internet Directory Client 11.2.0.1.0
Oracle Net Listener 11.2.0.1.0
Cluster Ready Services Files 11.2.0.1.0
Oracle Database 11g 11.2.0.1.0
-----------------------------------------------------------------------------

Skripte für Hinzufügen von Knoten werden instanziiert (Dienstag, 8. Januar 2013 20.56 Uhr CET)
.                                                                 1% fertig.
Instanziierung der Skripte für das Hinzufügen von Knoten abgeschlossen

Kopieren auf Remote-Knoten erfolgt (Dienstag, 8. Januar 2013 20.56 Uhr CET)
............................................................................................... 96% fertig.
Standardverzeichnis in neue Knoten kopiert

Bestandsverzeichnis wird auf Knoten gespeichert (Dienstag, 8. Januar 2013 21.00 Uhr CET)
.                                                               100% fertig.
Speichern von Bestandsverzeichnis abgeschlossen
WARNING:In dieser Session wurde ein neues Bestandsverzeichnis auf einem oder mehreren Knoten erstellt.

Dieses Verzeichnis wurde jedoch noch nicht als zentrales Bestandsverzeichnis für dieses System registriert.
Um das neue Bestandsverzeichnis zu registrieren, führen Sie das Skript unter
"/u01/app/oraInventory/orainstRoot.sh" mit Root-Berechtigungen auf Knoten "rac3" aus.
Wenn Sie das Bestandsverzeichnis nicht registrieren, können Sie bei den installierten Produkten
keine Aktualisierungen ausführen oder Patches einspielen.
Die folgenden Konfigurationsskripte müssen als "root"-Benutzer in jedem Cluster-Knoten ausgeführt werden.
/u01/app/oraInventory/orainstRoot.sh #On nodes rac3
/u01/app/11.2.0/grid/root.sh #On nodes rac3
So führen Sie die Konfigurationsskripte aus:
1. Öffnen Sie ein Terminal-Fenster
2. Melden Sie sich als "root" an
3. Führen Sie die Skripte in jedem Cluster-Knoten aus

Hinzufügen von Cluster-Knoten von /u01/app/11.2.0/grid wurde erfolgreich ausgeführt.
Weitere Einzelheiten finden Sie in "/tmp/silentInstall.log".

[grid@rac1 bin]$ ssh rac3

[root@rac3 ~]# /u01/app/11.2.0/grid/root.sh
Running Oracle 11g root.sh script...

The following environment variables are set as:
ORACLE_OWNER= grid
ORACLE_HOME=  /u01/app/11.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root.sh script.
Now product-specific root actions will be performed.
2013-01-08 21:20:04: Parsing the host name
2013-01-08 21:20:04: Checking for super user privileges
2013-01-08 21:20:04: User has super user privileges
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
LOCAL ADD MODE
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Adding daemon to inittab
CRS-4123: Oracle High Availability Services has been started.
ohasd is starting
CRS-4402: Der CSS-Daemon wurde im exklusiven Modus gestartet, wird aber aufgrund
eines aktiven CSS-Daemons auf Knoten rac1, Nummer 1 abgebrochen

An active cluster was found during exclusive startup, restarting to join the cluster
CRS-2672: Versuch, "ora.mdnsd" auf "rac3" zu starten
CRS-2676: Starten von "ora.mdnsd" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.gipcd" auf "rac3" zu starten
CRS-2676: Starten von "ora.gipcd" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.gpnpd" auf "rac3" zu starten
CRS-2676: Starten von "ora.gpnpd" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.cssdmonitor" auf "rac3" zu starten
CRS-2676: Starten von "ora.cssdmonitor" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.cssd" auf "rac3" zu starten
CRS-2672: Versuch, "ora.diskmon" auf "rac3" zu starten
CRS-2676: Starten von "ora.diskmon" auf "rac3" erfolgreich
CRS-2676: Starten von "ora.cssd" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.ctssd" auf "rac3" zu starten
CRS-2676: Starten von "ora.ctssd" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.drivers.acfs" auf "rac3" zu starten
CRS-2676: Starten von "ora.drivers.acfs" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.asm" auf "rac3" zu starten
CRS-2676: Starten von "ora.asm" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.crsd" auf "rac3" zu starten
CRS-2676: Starten von "ora.crsd" auf "rac3" erfolgreich
CRS-2672: Versuch, "ora.evmd" auf "rac3" zu starten
CRS-2676: Starten von "ora.evmd" auf "rac3" erfolgreich
clscfg: EXISTING configuration version 5 detected.
clscfg: version 5 is 11g Release 2.
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.

rac3     2013/01/08 21:23:11     /u01/app/11.2.0/grid/cdata/rac3/backup_20130108_212311.olr
Vorbereiten der Pakete für die Installation...
cvuqdisk-1.0.7-1
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
Updating inventory properties for clusterware
Oracle Universal Installer wird gestartet...

Swap-Speicher wird geprüft: muss größer sein als 500 MB.   Tatsächlich 10111 MB    Erfolgreich
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /u01/app/oraInventory
'UpdateNodeList' war erfolgreich.

 

 

Ab Oracle 11.2 wird das sogenannte "Out of Place" Upgrade unterstützt. Dies bedeutet, dass die Upgrades nicht mehr direkt in die vorhandenen Oracle-Homes installiert werden, sondern parallel neue Oracle-Homes aufgebaut werden. Dies bedeutet, dass der Patchset selber eine voll alleinstehende Softwareinstallation ist. Es muss also nicht im Vorfeld 11.2.0.1 installiert sein, um auf eine höhere Revision upgraden zu können. In diesem Beispiel ist eine komplett installierte 11.2.0.1 RAC-Datenbank unter Linux mit zwei Knoten installiert, welche nicht in ASM, sondern auf NFS liegt. Der Patchset besteht insgesamt aus 7 Zip-Dateien, wovon allerdings hier nur die ersten drei benötigt werden.

Patchset Datenbank:
p10404530_112030_Linux-x86-64_1of7.zip
p10404530_112030_Linux-x86-64_2of7.zip

Die Zip-Dateien des Patchsets der Datenbank müssen ineinander entpackt werden. In diesem Fall wurden die Dateien unter: /stage/11.2.0.3/database auf dem Knoten rac1 abgelegt.

Patchset Grid-Infrastructure:
p10404530_112030_Linux-x86-64_3of7.zip

Der Patchset für die Grid-Infrastructure liegt unter /stage/11.2.0.3/grid auf Knoten rac1.

Wichtiger Hinweis:

Dieses Upgrade bezieht sich von Version 11.2.0.1 auf Version 11.2.0.3 mit einem "Out of Place" Upgrade für die Grid-Infrastructure und der RAC-Datenbank. Unter Umständen müssen im Vorfeld zusätzliche Patches eingespielt werden, um das Upgrade durchführen zu können. Hierfür sollte im Vorfeld My Oracle Support befragt werden.

Upgrade der Grid-Infrastructure

1. Anlegen des neuen Grid-Home auf beiden Konten und erteilen der Rechte.
[oracle@rac2 ~]$ su -
Passwort:
[root@rac1 ~]# mkdir /u01/app/11.2.0.3
[root@rac1 ~]# chown oracle:oracle /u01/app/11.2.0.3
[root@rac1 ~]$ ssh rac2
[root@rac2 ~]$ su -
Passwort:
[root@rac2 ~]# mkdir /u01/app/11.2.0.3
[root@rac2 ~]# chown oracle:oracle /u01/app/11.2.0.3

2. Starten des Universal Installers auf Konten rac1
[oracle@rac1 ~]$ cd /stage/11.2.0.3/grid/
[oracle@rac1 grid]$ ls
doc      readme.html  rpm           runInstaller  stage
install  response     runcluvfy.sh  sshsetup      welcome.html
[oracle@rac1 grid]$ ./runInstaller
Oracle Universal Installer wird gestartet...

Temporärer Speicherplatz wird geprüft: muss größer sein als 120 MB.   Tatsächlich 47267 MB    Erfolgreich
Swap-Speicher wird geprüft: muss größer sein als 150 MB.   Tatsächlich 1843 MB    Erfolgreich
Monitor wird geprüft: muss so konfiguriert sein, dass mindestens 256 Farben angezeigt werden.    Tatsächlich 16777216    Erfolgreich
Vorbereitung für das Starten von Oracle Universal Installer aus /tmp/OraInstall2012-04-17_06-19-22PM. Bitte haben Sie einen Moment Geduld...[oracle@rac1 grid]$

3. Installation der neuen Grid-Infrastructure

a. Metalinkinformationen

1

b. Installationsauswahl.

2

c. Sprachenauswahl

3

d. Knotenauswahl, hier sind alle Knoten abgegraut, obwohl später ein Roling-Upgrade, also ein Knoten nach den anderen ein Upgrade erfährt.

4

e. Auswahl der ASM-Gruppen. (In diesem Fall uninteressant, da die Datenbank auf NFS-Laufwerken liegt)

5

f. Auswahl des neuen Grid-Home, welches im Vorfeld erstellt wurde.

6

g. Überprüfung der Vorraussetzungen

7

 h. Durchführung der Installation

9

i. Ausfüren des Scripts rootupgrade unter dem Benutzer root auf jedem Knoten nacheinander. Dieser Dialog darf erst bestätigt werden, wenn auf allen Knoten das Skript erfolgreich abgelaufen ist.

10

Ausführung auf Knoten rac1:

[oracle@rac1 ~]$ su -
Passwort:
[root@rac1 ~]# /u01/app/11.2.0.3/grid/rootupgrade.sh
Performing root user operation for Oracle 11g

The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME=  /u01/app/11.2.0.3/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The file "oraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:
The file "coraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0.3/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation

Kein ASM konfiguriert.

CRS-2791: Herunterfahren der von Oracle High Availability Services verwalteten Ressourcen auf "rac1" wird gestartet
CRS-2673: Versuch, "ora.crsd" auf "rac1" zu stoppen
CRS-2790: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac1' wird gestartet
CRS-2673: Versuch, "ora.LISTENER.lsnr" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.orcl.db" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.LISTENER_SCAN1.lsnr" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER_SCAN1.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.scan1.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.rac1.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.rac1.vip" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.rac1.vip" auf "rac2" zu starten
CRS-2677: Stoppen von "ora.scan1.vip" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.scan1.vip" auf "rac2" zu starten
CRS-2676: Starten von "ora.rac1.vip" auf "rac2" erfolgreich
CRS-2676: Starten von "ora.scan1.vip" auf "rac2" erfolgreich
CRS-2672: Versuch, "ora.LISTENER_SCAN1.lsnr" auf "rac2" zu starten
CRS-2676: Starten von "ora.LISTENER_SCAN1.lsnr" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.orcl.db" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.ons" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.eons" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.ons" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.net1.network" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.net1.network" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.eons" auf "rac1" erfolgreich
CRS-2792: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac1' ist abgeschlossen
CRS-2677: Stoppen von "ora.crsd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.gpnpd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.cssdmonitor" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.ctssd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.evmd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.mdnsd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.cssdmonitor" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.evmd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.gpnpd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.mdnsd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.ctssd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.cssd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.cssd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.diskmon" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.gipcd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.gipcd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.diskmon" auf "rac1" erfolgreich
CRS-2793: Herunterfahren der von Oracle High Availability Services verwalteten Ressourcen auf "rac1" ist abgeschlossen
CRS-4133: Oracle High Availability Services has been stopped.
OLR initialization - successful
Replacing Clusterware entries in inittab
clscfg: EXISTING configuration version 5 detected.
clscfg: version 5 is 11g Release 2.
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Vorbereiten der Pakete für die Installation...
cvuqdisk-1.0.9-1
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
[root@rac1 ~]#

Ausführung auf Knoten rac2:

[root@rac1 ~]# ssh rac2
root@rac2's password:
Last login: Tue Apr 17 18:26:03 2012 from rac1.localdomain
[root@rac2 ~]# /u01/app/11.2.0.3/grid/rootupgrade.sh
Performing root user operation for Oracle 11g

The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME=  /u01/app/11.2.0.3/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The file "oraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:
The file "coraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0.3/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
CRS-2791: Herunterfahren der von Oracle High Availability Services verwalteten Ressourcen auf "rac2" wird gestartet
CRS-2673: Versuch, "ora.crsd" auf "rac2" zu stoppen
CRS-2790: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac2' wird gestartet
CRS-2673: Versuch, "ora.orcl.db" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.LISTENER.lsnr" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.LISTENER_SCAN1.lsnr" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER.lsnr" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.rac2.vip" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.rac2.vip" auf "rac2" erfolgreich
CRS-2672: Versuch, "ora.rac2.vip" auf "rac1" zu starten
CRS-2677: Stoppen von "ora.LISTENER_SCAN1.lsnr" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.scan1.vip" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.scan1.vip" auf "rac2" erfolgreich
CRS-2672: Versuch, "ora.scan1.vip" auf "rac1" zu starten
CRS-2676: Starten von "ora.rac2.vip" auf "rac1" erfolgreich
CRS-2676: Starten von "ora.scan1.vip" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.LISTENER_SCAN1.lsnr" auf "rac1" zu starten
CRS-2676: Starten von "ora.LISTENER_SCAN1.lsnr" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.orcl.db" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.ons" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.eons" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.ons" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.net1.network" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.net1.network" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.eons" auf "rac2" erfolgreich
CRS-2792: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac2' ist abgeschlossen
CRS-2677: Stoppen von "ora.crsd" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.gpnpd" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.cssdmonitor" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.ctssd" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.evmd" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.mdnsd" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.cssdmonitor" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.gpnpd" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.evmd" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.mdnsd" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.ctssd" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.cssd" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.cssd" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.diskmon" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.gipcd" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.gipcd" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.diskmon" auf "rac2" erfolgreich
CRS-2793: Herunterfahren der von Oracle High Availability Services verwalteten Ressourcen auf "rac2" ist abgeschlossen
CRS-4133: Oracle High Availability Services has been stopped.
OLR initialization - successful
Replacing Clusterware entries in inittab
clscfg: EXISTING configuration version 5 detected.
clscfg: version 5 is 11g Release 2.
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Started to upgrade the Oracle Clusterware. This operation may take a few minutes.
Started to upgrade the CSS.
Started to upgrade the CRS.
The CRS was successfully upgraded.
Oracle Clusterware operating version was successfully set to 11.2.0.3.0

Kein ASM konfiguriert.

CRS-2672: Attempting to start 'ora.asm' on 'rac1'
CRS-2676: Start of 'ora.asm' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.registry.acfs' on 'rac1'
CRS-2676: Start of 'ora.registry.acfs' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'rac2'
CRS-2676: Start of 'ora.asm' on 'rac2' succeeded
CRS-2672: Attempting to start 'ora.registry.acfs' on 'rac2'
CRS-2676: Start of 'ora.registry.acfs' on 'rac2' succeeded
Vorbereiten der Pakete für die Installation...
cvuqdisk-1.0.9-1
Configure Oracle Grid Infrastructure for a Cluster ... succeeded

j. Aktualisierung des Bestandverzeichnisses und der Enterprise Manager Konfiguration

11

k. Abschluss des Upgrades

13

4. Anpassung der oratab

Da ich zum Wechslen zwischen Datenbank-Home und Grid-Home das Script oraenv verwende, führe ich nachträglich noch Anpassungen in der Datei /etc/oratab für das neue Grid-Home durch, auf welches das Skript oraenv zugreift.

[root@rac2 grid]# vi /etc/oratab

orcl2:/u01/app/oracle/product/11.2.0/dbhome_1:N         # line added by Agent
grid:/u01/app/11.2.0.3/grid:N
orcl:/u01/app/oracle/product/11.2.0/dbhome_1:N

5. Überprüfung der Version

[root@rac2 grid]# . oraenv
ORACLE_SID = [orcl] ? grid
The Oracle base for ORACLE_HOME=/u01/app/11.2.0.3/grid is /u01/app/oracle

[root@rac2 grid]#   crsctl query crs activeversion
Oracle Clusterware active version on the cluster is [11.2.0.3.0]

[root@rac1 ~]# crsctl query crs activeversion
Oracle Clusterware active version on the cluster is [11.2.0.3.0]

Upgrade der Datenbank

1. Erstellen eines neuen Datenbank-Home auf beiden Knoten.

[oracle@rac1 u01]$ mkdir /u01/app/oracle/product/ 11.2.0.3
[oracle@rac1 u01]$ ssh rac2
[oracle@rac2 u01]$ mkdir /u01/app/oracle/product/ 11.2.0.3

2. Starten des Universal Installers von Knoten rac1

[oracle@rac1 u01]$ cd /stage/11.2.0/clusterware/11.2.0.3/database/
[oracle@rac1 database]$ ./runInstaller
Oracle Universal Installer wird gestartet...

Temporärer Speicherplatz wird geprüft: muss größer sein als 120 MB.   Tatsächlich 45357 MB    Erfolgreich
Swap-Speicher wird geprüft: muss größer sein als 150 MB.   Tatsächlich 2041 MB    Erfolgreich
Monitor wird geprüft: muss so konfiguriert sein, dass mindestens 256 Farben angezeigt werden.    Tatsächlich 16777216    Erfolgreich
Vorbereitung für das Starten von Oracle Universal Installer aus /tmp/OraInstall2012-04-17_08-49-11PM. Bitte haben Sie einen Moment Geduld...[oracle@rac1 database]$

3. Durchführen der Software Installation in das neue Database-Home

 a. My Oracle Support Informationen

1

 

2

b. Auswahl Upgrade Datenbank

3

c. Auswahl der Knoten, auf denen das neue Datenbank-Home installiert werden soll.

4

 d. Auswahl der Sprachen

5

e. Auswahl der Edition

6

f. Angabe des neuen Database-Home

7

g. Überprüfung der Vorraussetzungen

8

h. Start der Installation

11

h. Ausführung des Skripts root.sh unter dem Benutzer root auf einem Knoten nach dem anderen. Erst wenn auf allen Knoten das Script erfolgreich ausgeführt wurde, kann dieser Dialog bestätigt werden.

13

Ausführung auf Knoten rac1:
oracle@rac1 ~]$ su -
Passwort:
[root@rac1 ~]# /u01/app/oracle/product/11.2.0.3/dbhome_1/root.sh
Performing root user operation for Oracle 11g

The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME=  /u01/app/oracle/product/11.2.0.3/dbhome_1

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The file "oraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:
The file "coraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Finished product-specific root actions.

Ausführung auf Knoten rac2:
[root@rac1 ~]# ssh rac2
root@rac2's password:
[root@rac2 ~]# /u01/app/oracle/product/11.2.0.3/dbhome_1/root.sh
Performing root user operation for Oracle 11g

The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME=  /u01/app/oracle/product/11.2.0.3/dbhome_1

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The file "oraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:
The file "coraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]:

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Finished product-specific root actions.
[root@rac2 ~]#

 4. Upgrade mit Database Upgrade Assistant DBUA

Nach Ausführung des Skripts root.sh auf allen Knoten und der Bestätigung des Dialogs startet des DBUA für das Upgrade der Datenbank automatisch.

a. Eingagsdialog des DBUA

14

b. Optionen für das Upgrade.

15

c. Ort für die Fast Recovery Area

16

d. Zusammenfassung des Upgrades

17

e. Durchführung des Upgrades

20

f. Beendigung des Upgrades

22

 

 

 

 

 

Bei der Konvertierung einer RAC-Datenbank von Administrator-Managed in Policy-Managed trat ein Fehler auf. Aus diesem Grund wurde die Datenbank aus der Cluster-Konfiguration herausgenommen, um sie nachträglich wieder als Administrator-Managed hinzuzufügen. Allerdings wurde nun beim Hinzufügen der Fehler PRCS-1086 mit dem Hinweis ausgegeben, dass der Initialserverpool bereits vorhanden sei. Ein Entfernen des Serverpools mit srvctl schlug ebenfalls fehl.

srvctl remove srvpool -g ora.orcl

[oracle@rac1 ~]$ srvctl add database -d orcl -o /u01/app/oracle/product/11.2.0/dbhome_1 -p /u01/racdisk/oradata/orcl/spfileorcl.ora
PRCS-1007 : Server-Pool orcl ist bereits vorhanden
PRCR-1086 : Server-Pool ora.orcl ist bereits registriert

Die einzige Möglichkeit die Datenbank erneut CRS hinzuzufügen bestand darin, den übriggebliebenen Serverpool mit crsctl zu entfernen, nicht mit srvctl.

[root@rac1 ~]# crsctl delete serverpool ora.orcl

Danach kann dann die Datenbank und deren Instanzen erneut hinzugefügt werden.

[oracle@rac1 ~]$ srvctl add database -d orcl -o /u01/app/oracle/product/11.2.0/dbhome_1 -p /u01/racdisk/oradata/orcl/spfileorcl.ora

[oracle@rac1 ~]$ srvctl start database -d orcl
Datenbank orcl kann nicht gestartet werden, da sie keine konfigurierten Instanzen hat.

[oracle@rac1 ~]$ srvctl add instance -d orcl -i orcl1 -n rac1
[oracle@rac1 ~]$ srvctl add instance -d orcl -i orcl2 -n rac2

[oracle@rac1 ~]$ srvctl start database -d orcl

Services werden für den Verbindungsaufbau vom Client zum Oracle-Server verwendet. Speziell bei RAC sind Services wichtig, um eine entsprechende Aufteilung der Last, aber auch ein Failover einer Verbindung einer Anwendung zu einem anderen Knoten zu erlauben, falls der aktuelle Knoten ausfällt. Im folgenden Beispiel wird dieses Zusammenspiel verdeutlicht.

Im ersten Schritt wird ein Service mit dem Namen racservice für die beforzugten Instanzen orcl1 und orcl2 erstellt.
[oracle@rac1 ~]$ srvctl add service -d orcl -s racservice -r orcl1,orcl2 -P PRECONNECT

Dieser Service wird nun gestartet und ist für die beforzugten Instanzen aktiv.
[oracle@rac1 ~]$ srvctl start service -d orcl -s racservice

Das dieser Service für diese beiden Instanzen aktib ist, kann über seinen Status ausgelesen werden.
[oracle@rac1 ~]$ srvctl status service -d orcl -s racservice
Service racservice wird in Instanzen orcl1,orcl2 ausgeführt

oder:
[oracle@rac1 ~]$ srvctl config service -d orcl -s racservice -a
Service-Name: racservice
Service ist aktiviert
Server-Pool: orcl_racservice
Kardinalität: 2
Abmelden: false
Service-Rolle: PRIMARY
Verwaltungs-Policy: AUTOMATIC
DTP-Transaktion: false
AQ HA-Benachrichtigungen: false
Failover-Typ: NONE
Failover-Methode: NONE
TAF-Failover-Wiederholungen: 0
TAF-Failover-Verzögerung: 0
Connection Load Balancing-Ziel: LONG
Runtime Load Balancing-Ziel: NONE
TAF-Policy-Spezifikation: PRECONNECT
Bevorzugte Instanzen: orcl1,orcl2
Verfügbare Instanzen:

Demnach muss nun dieser Service auf beiden Listenern der Knoten, auf denen die Instanzen orcl1 und orcl2 laufen, registriert worden sein.

Auf Knoten rac1:

[oracle@rac1 ~]$ lsnrctl status

LSNRCTL for Linux: Version 11.2.0.1.0 - Production on 10-APR-2012 15:33:35

Copyright (c) 1991, 2009, Oracle.  All rights reserved.

Connecting to (ADDRESS=(PROTOCOL=tcp)(HOST=)(PORT=1521))
STATUS of the LISTENER
------------------------
Alias                     LISTENER
Version                   TNSLSNR for Linux: Version 11.2.0.1.0 - Production
Start Date                10-APR-2012 13:12:16
Uptime                    0 days 2 hr. 21 min. 19 sec
Trace Level               off
Security                  ON: Local OS Authentication
SNMP                      OFF
Listener Parameter File   /u01/app/11.2.0/grid/network/admin/listener.ora
Listener Log File         /u01/app/oracle/diag/tnslsnr/rac1/listener/alert/log.xml
Listening Endpoints Summary...
(DESCRIPTION=(ADDRESS=(PROTOCOL=ipc)(KEY=LISTENER)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.1.20)(PORT=1521)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.1.220)(PORT=1521)))
Services Summary...
Service "orcl.localdomain" has 1 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this service...
Service "orclXDB.localdomain" has 1 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this service...
Service "racservice.localdomain" has 1 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this service...
The command completed successfully

Auf Knoten rac2:

[oracle@rac2 ~]$ lsnrctl status

LSNRCTL for Linux: Version 11.2.0.1.0 - Production on 10-APR-2012 15:52:37

Copyright (c) 1991, 2009, Oracle.  All rights reserved.

Connecting to (DESCRIPTION=(ADDRESS=(PROTOCOL=IPC)(KEY=LISTENER)))
STATUS of the LISTENER
------------------------
Alias                     LISTENER
Version                   TNSLSNR for Linux: Version 11.2.0.1.0 - Production
Start Date                10-APR-2012 11:18:42
Uptime                    0 days 4 hr. 33 min. 54 sec
Trace Level               off
Security                  ON: Local OS Authentication
SNMP                      OFF
Listener Parameter File   /u01/app/11.2.0/grid/network/admin/listener.ora
Listener Log File         /u01/app/oracle/diag/tnslsnr/rac2/listener/alert/log.xml
Listening Endpoints Summary...
(DESCRIPTION=(ADDRESS=(PROTOCOL=ipc)(KEY=LISTENER)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.1.21)(PORT=1521)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.1.221)(PORT=1521)))
Services Summary...
Service "orcl.localdomain" has 1 instance(s).
Instance "orcl2", status READY, has 1 handler(s) for this service...
Service "orclXDB.localdomain" has 1 instance(s).
Instance "orcl2", status READY, has 1 handler(s) for this service...
Service "racservice.localdomain" has 1 instance(s).
Instance "orcl2", status READY, has 1 handler(s) for this service...
The command completed successfully

Da ab Oracle RAC 11g R2 SCAN (Single Client Access Name) eingeführt wurde, muss nun nicht mehr in der TNSNAMES.ORA jeder Knoten für den Service aufgenommen werden, sondern es wird sich gegen den SCAN-Listener verbunden, der wiederum die Anfrage an einen Listener weiterleitet, dessen Instanz weniger belastet ist und den angegebenen Service registriert hat. In diesem Beispiel lautet der Cluster-Name unter dem der SCAN-Listener läuft rac-scan und reagiert auf den Port 1521. Da die Zuweisung der Verbindung nun über den SCAN-Listener erfolgen kann, ist eine ausbalancierte Verbindung nun auch mit dem Easy-Connect möglich, welches unten mit dem Format host:port/service durchgeführt wird.

Abfrage des SCAN-Listeners:

LSNRCTL> set current_listener listener_scan1
Current Listener is listener_scan1
LSNRCTL> status
Connecting to (DESCRIPTION=(ADDRESS=(PROTOCOL=IPC)(KEY=LISTENER_SCAN1)))
STATUS of the LISTENER
------------------------
Alias                     LISTENER_SCAN1
Version                   TNSLSNR for Linux: Version 11.2.0.1.0 - Production
Start Date                11-APR-2012 13:30:34
Uptime                    0 days 2 hr. 52 min. 18 sec
Trace Level               off
Security                  ON: Local OS Authentication
SNMP                      OFF
Listener Parameter File   /u01/app/11.2.0/grid/network/admin/listener.ora
Listener Log File         /u01/app/11.2.0/grid/log/diag/tnslsnr/rac1/listener_scan1/alert/log.xml
Listening Endpoints Summary...
(DESCRIPTION=(ADDRESS=(PROTOCOL=ipc)(KEY=LISTENER_SCAN1)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.1.201)(PORT=1521)))
Services Summary...
Service "orcl.localdomain" has 2 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this service...
Instance "orcl2", status READY, has 1 handler(s) for this service...
Service "orclXDB.localdomain" has 2 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this service...
Instance "orcl2", status READY, has 1 handler(s) for this service...
Service "racservice.localdomain" has 2 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this service...
Instance "orcl2", status READY, has 1 handler(s) for this service...
The command completed successfully

Hauptproblem beim Easy-Connect in Verbindung mit RAC war ja, dass immer nur ein Host angesprochen wird und eine ausbalancierte Verbindungsaufnahme zu allen Instanzen somit nicht möglich war. In unserem Fall ist der Host aber nun der SCAN-Listener. Da ebenfalls der Service bei der Verbindung angegeben wird, leitet nun der SCAN-Listener die Anfrage einen lokalen Listener einer Instanz weiter, auf dem dieser Service existiert. Wir haben den Service racservice auf den Instanzen orcl1 und orcl2 erstellt und gestartet. Sollte es eine weitere Instanz, vielleicht orcl3, geben, so wird diese Instanz bei der Verbindungsaufnahme ignoriert.

Der erste Connect erfolgt an die Instanz orcl2

[oracle@rac1 ~]$ sqlplus system/oracle_4U@rac-scan:1521/racservice.localdomain

SQL*Plus: Release 11.2.0.1.0 Production on Tue Apr 10 15:54:07 2012

Copyright (c) 1982, 2009, Oracle.  All rights reserved.

Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production
With the Partitioning, Real Application Clusters, OLAP, Data Mining
and Real Application Testing options

SQL> select instance_name from v$instance;

INSTANCE_NAME
----------------
orcl2

SQL> exit
Disconnected from Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production
With the Partitioning, Real Application Clusters, OLAP, Data Mining
and Real Application Testing options

Der zweite Connect erfolgt an die Instanz orcl1

[oracle@rac1 ~]$ sqlplus system/oracle_4U@rac-scan:1521/racservice.localdomain

SQL*Plus: Release 11.2.0.1.0 Production on Tue Apr 10 15:54:32 2012

Copyright (c) 1982, 2009, Oracle.  All rights reserved.

Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production
With the Partitioning, Real Application Clusters, OLAP, Data Mining
and Real Application Testing options

SQL> select instance_name from v$instance;

INSTANCE_NAME
----------------
orcl1

SQL>

[oracle@rac1 ~]$ cluvfy comp nodecon -n all -verbose

Knotenkonnektivität wird überprüft

Knotenkonnektivität wird geprüft...

Hosts-Konfigurationsdatei wird geprüft ...
Knotenname    Status                    Kommentar
------------  ------------------------  ------------------------
rac2          erfolgreich
rac1          erfolgreich

Prüfung der Hosts-Konfigurationsdatei erfolgreich

Schnittstelleninformationen für Knoten "rac2"
Name   IP-Adresse      Subnet          Gateway         Standard-Gateway HW-Adresse        MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0   192.168.1.21    192.168.1.0     0.0.0.0         192.168.1.1     00:50:56:2E:10:06 1500
eth0   192.168.1.221   192.168.1.0     0.0.0.0         192.168.1.1     00:50:56:2E:10:06 1500
eth1   192.168.2.21    192.168.2.0     0.0.0.0         192.168.1.1     00:50:56:36:35:7C 1500
eth2   192.168.0.141   192.168.0.0     0.0.0.0         192.168.1.1     00:0C:29:51:A9:6D 1500

Schnittstelleninformationen für Knoten "rac1"
Name   IP-Adresse      Subnet          Gateway         Standard-Gateway HW-Adresse        MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0   192.168.1.20    192.168.1.0     0.0.0.0         192.168.1.1     00:50:56:2D:F9:3E 1500
eth0   192.168.1.201   192.168.1.0     0.0.0.0         192.168.1.1     00:50:56:2D:F9:3E 1500
eth0   192.168.1.220   192.168.1.0     0.0.0.0         192.168.1.1     00:50:56:2D:F9:3E 1500
eth1   192.168.2.20    192.168.2.0     0.0.0.0         192.168.1.1     00:50:56:3C:0C:2E 1500
eth2   192.168.0.140   192.168.0.0     0.0.0.0         192.168.1.1     00:0C:29:48:BC:8A 1500

Prüfung: Knotenkonnektivität von Subnet "192.168.1.0"
Quelle                          Ziel                            Angemeldet?
------------------------------  ------------------------------  ----------------
rac2:eth0                       rac2:eth0                       ja
rac2:eth0                       rac1:eth0                       ja
rac2:eth0                       rac1:eth0                       ja
rac2:eth0                       rac1:eth0                       ja
rac2:eth0                       rac1:eth0                       ja
rac2:eth0                       rac1:eth0                       ja
rac2:eth0                       rac1:eth0                       ja
rac1:eth0                       rac1:eth0                       ja
rac1:eth0                       rac1:eth0                       ja
rac1:eth0                       rac1:eth0                       ja
Ergebnis: Prüfung auf Knotenkonnektivität für Subnet "192.168.1.0" mit Knoten rac2,rac1 erfolgreich

Prüfung: TCP-Konnektivität von Subnet "192.168.1.0"
Quelle                          Ziel                            Angemeldet?
------------------------------  ------------------------------  ----------------
rac1:192.168.1.20               rac2:192.168.1.21               erfolgreich
rac1:192.168.1.20               rac2:192.168.1.221              erfolgreich
rac1:192.168.1.20               rac1:192.168.1.201              erfolgreich
rac1:192.168.1.20               rac1:192.168.1.220              erfolgreich
Ergebnis: Prüfung der TCP-Konnektivität für Subnet "192.168.1.0" erfolgreich

Prüfung: Knotenkonnektivität von Subnet "192.168.2.0"
Quelle                          Ziel                            Angemeldet?
------------------------------  ------------------------------  ----------------
rac2:eth1                       rac1:eth1                       ja
Ergebnis: Prüfung auf Knotenkonnektivität für Subnet "192.168.2.0" mit Knoten rac2,rac1 erfolgreich

Prüfung: TCP-Konnektivität von Subnet "192.168.2.0"
Quelle                          Ziel                            Angemeldet?
------------------------------  ------------------------------  ----------------
rac1:192.168.2.20               rac2:192.168.2.21               erfolgreich
Ergebnis: Prüfung der TCP-Konnektivität für Subnet "192.168.2.0" erfolgreich

Prüfung: Knotenkonnektivität von Subnet "192.168.0.0"
Quelle                          Ziel                            Angemeldet?
------------------------------  ------------------------------  ----------------
rac2:eth2                       rac1:eth2                       ja
Ergebnis: Prüfung auf Knotenkonnektivität für Subnet "192.168.0.0" mit Knoten rac2,rac1 erfolgreich

Prüfung: TCP-Konnektivität von Subnet "192.168.0.0"
Quelle                          Ziel                            Angemeldet?
------------------------------  ------------------------------  ----------------
rac1:192.168.0.140              rac2:192.168.0.141              erfolgreich
Ergebnis: Prüfung der TCP-Konnektivität für Subnet "192.168.0.0" erfolgreich

Folgende Schnittstellen wurden auf Subnet "192.168.1.0" gefunden, die für das VIP in Frage kommen:
rac2 eth0:192.168.1.21 eth0:192.168.1.221
rac1 eth0:192.168.1.20 eth0:192.168.1.201 eth0:192.168.1.220

Folgende Schnittstellen wurden auf Subnet "192.168.2.0" gefunden, die für ein Private Interconnect in Frage kommen:
rac2 eth1:192.168.2.21
rac1 eth1:192.168.2.20

Folgende Schnittstellen wurden auf Subnet "192.168.0.0" gefunden, die für ein Private Interconnect in Frage kommen:
rac2 eth2:192.168.0.141
rac1 eth2:192.168.0.140

Ergebnis: Prüfung auf Knotenkonnektivität erfolgreich

Überprüfung von Knotenkonnektivität war erfolgreich.

Sollte die OCR defekt sein, so kann sie über das Kommandozeilenwerkzeug ocrconfig wiederhergestellt werden.

1. Anzeigen der vorhandenen Sicherungen. Siehe dazu auch Artikel Sichern der OCR in 11gR2.

[root@rac1 bin]# ./ocrconfig -showbackup

rac1     2012/04/08 16:29:33     /u01/app/11.2.0/grid/cdata/rac-scan/backup_20120408_162933.ocr

rac1     2012/04/04 16:47:48     /u01/app/11.2.0/grid/cdata/rac-scan/backup_20120404_164748.ocr

rac1     2012/04/04 16:47:16     /u01/app/11.2.0/grid/cdata/rac-scan/backup_20120404_164716.ocr

rac1     2012/02/15 08:56:49     /u01/app/11.2.0/grid/cdata/rac-scan/backup_20120215_085649.ocr

2. Herunterfahren der Clusterware auf allen Knoten.

[root@rac1 bin]# ./crsctl stop cluster -all
CRS-2673: Versuch, "ora.crsd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.crsd" auf "rac2" zu stoppen
CRS-2790: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac1' wird gestartet
CRS-2673: Versuch, "ora.orcl.db" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.LISTENER.lsnr" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.LISTENER_SCAN1.lsnr" auf "rac1" zu stoppen
CRS-2790: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac2' wird gestartet
CRS-2673: Versuch, "ora.LISTENER.lsnr" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.orcl.db" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER.lsnr" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.rac2.vip" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.rac2.vip" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.LISTENER_SCAN1.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.scan1.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.LISTENER.lsnr" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.rac1.vip" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.scan1.vip" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.rac1.vip" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.orcl.db" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.ons" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.eons" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.ons" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.net1.network" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.net1.network" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.eons" auf "rac2" erfolgreich
CRS-2792: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac2' ist abgeschlossen
CRS-2677: Stoppen von "ora.orcl.db" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.ons" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.eons" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.ons" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.net1.network" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.net1.network" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.crsd" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.cssdmonitor" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.ctssd" auf "rac2" zu stoppen
CRS-2673: Versuch, "ora.evmd" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.cssdmonitor" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.evmd" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.eons" auf "rac1" erfolgreich
CRS-2792: Herunterfahren der von Cluster Ready Services verwalteten Ressourcen auf 'rac1' ist abgeschlossen
CRS-2677: Stoppen von "ora.crsd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.cssdmonitor" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.ctssd" auf "rac1" zu stoppen
CRS-2673: Versuch, "ora.evmd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.cssdmonitor" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.ctssd" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.cssd" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.evmd" auf "rac1" erfolgreich
CRS-2677: Stoppen von "ora.cssd" auf "rac2" erfolgreich
CRS-2673: Versuch, "ora.diskmon" auf "rac2" zu stoppen
CRS-2677: Stoppen von "ora.ctssd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.cssd" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.cssd" auf "rac1" erfolgreich
CRS-2673: Versuch, "ora.diskmon" auf "rac1" zu stoppen
CRS-2677: Stoppen von "ora.diskmon" auf "rac2" erfolgreich
CRS-2677: Stoppen von "ora.diskmon" auf "rac1" erfolgreich

 

3. Wiederherstellen der OCR mit ocrconfig

[root@rac1 bin]# ./ocrconfig -restore /u01/app/11.2.0/grid/cdata/rac-scan/backup_20120408_162933.ocr

4. Starten der Clusterware auf allen Knoten

[root@rac1 bin]# ./crsctl start cluster -all
CRS-2672: Versuch, "ora.cssdmonitor" auf "rac1" zu starten
CRS-2672: Versuch, "ora.cssdmonitor" auf "rac2" zu starten
CRS-2676: Starten von "ora.cssdmonitor" auf "rac2" erfolgreich
CRS-2672: Versuch, "ora.cssd" auf "rac2" zu starten
CRS-2676: Starten von "ora.cssdmonitor" auf "rac1" erfolgreich
CRS-2672: Versuch, "ora.cssd" auf "rac1" zu starten
CRS-2672: Versuch, "ora.diskmon" auf "rac1" zu starten
CRS-2672: Versuch, "ora.diskmon" auf "rac2" zu starten
CRS-2676: Starten von "ora.diskmon" auf "rac2" erfolgreich
CRS-2676: Starten von "ora.diskmon" auf "rac1" erfolgreich
....
....

Seite 1 von 2