Dell™ PowerEdge™ Systems Oracle Database 10g Enterprise Edition — Linux for Intel® 32-Bit Technology (x86) Deployment Guide Version 2.2 w w w. d e l l . c o m | s u p p o r t . d e l l .
Notes and Notices NOTE: A NOTE indicates important information that helps you make better use of your computer. NOTICE: A NOTICE indicates either potential damage to hardware or loss of data and tells you how to avoid the problem. ____________________ Information in this document is subject to change without notice. © 2006 Dell Inc. All rights reserved. Reproduction in any manner whatsoever without the written permission of Dell Inc. is strictly forbidden.
Contents . . . . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 . . . . . . . . . . . . . . . 8 . . . . . . . . . . . . . 8 9 9 10 Oracle RAC 10g Deployment Service Software and Hardware Requirements License Agreements . . . Important Documentation.
Configuring and Deploying Oracle Database 10g (Single Node) . . . . . . . . 33 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 33 34 36 37 37 38 40 . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Configuring the Public Network . . . . . Configuring Database Storage . . . . . . Configuring Shared Storage Using ASM . Installing Oracle Database 10g . . . . . . Applying the 10.1.0.5 Patchset . . . . . . Configuring the Listener . . . . . . . . . Creating the Seed Database .
This document provides information about installing, configuring, reinstalling, and using Oracle Database 10g Enterprise Edition with Real Application Clusters (RAC) software on your Dell|Oracle supported configuration. NOTE: Use this document in conjunction with the Dell™ Deployment CD to install your software. If you install your operating system using only the operating system CDs, the instructions in this document may not be applicable.
Software and Hardware Requirements Before you install the Oracle RAC software on your system, follow the instructions in the Deploying Dell-Tested and Validated Configurations for Oracle Database document shipped with your kit, to: • Download the Red Hat CDs from the Red Hat website located at rhn.redhat.com. • Locate your Oracle CD kit, or download the Oracle software from Oracle's website located at www.oracle.com.
Table 1-2. Minimum Hardware Requirements—Fibre Channel Cluster (continued) Hardware Component Configuration Dell|EMC CX200, CX300, CX400, See the Dell|Oracle Tested and Validated Configurations website CX500, or CX700 Fibre Channel storage at www.dell.com/10g for information on supported configurations system Gigabit Ethernet switch (two) See the Dell|Oracle Tested and Validated Configurations website at www.dell.
Installing and Configuring Red Hat Enterprise Linux NOTICE: To ensure that the operating system is installed correctly, disconnect all external storage devices from the system before you install the operating system. This section describes the installation of the Red Hat Enterprise Linux AS operating system and the configuration of the operating system for Oracle deployment. Installing Red Hat Enterprise Linux Using the Deployment CDs 1 Disconnect all external storage devices from the system.
Configuring Hugemem Kernel The Red Hat Enterprise Linux 4 hugemem kernel is required to configure the Oracle relational database management system (RDBMS) to increase the size of the buffer cache above the default 1.7 GB value. Using Dell Deployment CD 1, the Red Hat Enterprise Linux 4 hugemem kernel is installed by default. Change the default boot parameters in the bootloader configuration file /etc/grub.conf to enable this option.
6 If you are deploying the cluster using OCFS2, perform the following steps: a Install OCFS2 Red Hat Package Managers (RPMs) by typing: ./340-rpms_ocfs.py b To ensure smooth mounting of OCFS2, type: ./350-ocfs_networkwait.py 7 Connect the external storage. Updating Your System Packages Using Red Hat Network Red Hat periodically releases software updates to fix bugs, address security issues, and add new features. You can download these updates through the Red Hat Network (RHN) service.
Figure 1-1.
Table 1-4.
Fibre Channel Hardware and Software Configurations • • Each node must include the following minimum hardware peripheral components: – One or two hard drives (36-GB minimum) in the internal hard-drive bay – Three Gigabit NIC ports – Two Fibre Channel HBAs Each node must have the following software installed: – Red Hat Enterprise Linux software (see Table 1-1) – Fibre Channel HBA driver – OCFS2 module for the kernel and the configuration tools for OCFS2 NOTE: OCFS supports two kinds of kernel, n
Depending on the number of NIC ports available, configure the network interfaces as shown in Table 1-5. Table 1-5. NIC Port Assignments NIC Port Three Ports Available Four Ports available 1 Public IP and virtual IP Public IP 2 Private IP (bonded) Private IP (bonded) 3 Private IP (bonded) Private IP (bonded) 4 NA Virtual IP NOTE: The Oracle installer requires that the public interface name and the bond name for the private interface be the same on all the cluster nodes.
6 Check your network configuration by pinging each public IP address from a client on the LAN outside the cluster. 7 Connect to each node to verify that the public network is functioning and verify that the secure shell (ssh) is working by typing: ssh Configuring the Private Network Using Bonding Before you deploy the cluster, configure the private cluster network to allow the nodes to communicate with each other.
5 For each device that is a bond member, perform the following steps: a In the directory /etc/sysconfig/network-scripts/, edit the ifcfg-ethn file, containing the following lines: DEVICE=ethn HWADDR= ONBOOT=yes TYPE=Ethernet USERCTL=no MASTER=bond0 SLAVE=yes BOOTPROTO=none b Type service network restart and ignore any warnings.
10 On each node, create or modify the /etc/hosts.equiv file by listing all of your public IP addresses or host names.
4 On each node, type: more /proc/partitions The node detects and displays the LUNs or logical disks, as well as the partitions created on those external devices. NOTE: The listed devices vary depending on how your storage is configured. A list of the LUNs or logical disks that are detected by the node is displayed, as well as the partitions that have been created on those external devices. PowerPath pseudo devices appear in the list, such as /dev/emcpowera, /dev/emcpowerb, and /dev/emcpowerc.
Configuring Shared Storage Using OCFS2 Shared storage can be configured using either OCFS2 or ASM. This section provides procedures for configuring shared storage using OCFS2. 1 Log in as root on the first node. 2 Perform the following steps: a Start the X Window System by typing: startx b Generate the OCFS2 configuration file (/etc/ocfs2/cluster.conf) with a default cluster name of ocfs2 by typing the following in a terminal: ocfs2console c From the menu, click Cluster→ Configure Nodes.
5 On the first node, for a Fibre Channel cluster, create one partition on each of the other two external storage devices with fdisk: a Create a primary partition for the entire device by typing: fdisk /dev/emcpowerx Type h for help within the fdisk utility. b Verify that the new partition exists by typing: cat /proc/partitions If you do not see the new partition, type: sfdisk -R /dev/ NOTE: The following steps use the sample values /u01 and /u02 for mount points and u01 and u02 as labels.
Configuring Shared Storage With ASM Configuring Shared Storage for Cluster Ready Service (CRS) To configure shared storage with ASM, perform the following steps: 1 On the first node, create three partitions on an external storage device with fdisk.
Configuring Shared Storage Using ASMLib 1 To configure your cluster using ASM, perform the following steps on all the nodes: a Log in as root. b Configure the ASM kernel module by typing: /etc/init.d/oracleasm configure The following message appears on the screen: Configuring the Oracle ASM library driver. This will configure the on-boot properties of the Oracle ASM library driver. The following questions will determine whether the driver is loaded on boot and what permissions it will have.
2 Label the partitions created earlier as ASM disks on any one node. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk "/dev/emcpowerb1" as an ASM disk: [ OK ] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk "/dev/emcpowerc1" as an ASM disk: [ OK ] 3 Scan the ASM disks on all the other nodes. # /etc/init.d/oracleasm scandisks Scanning system for ASM disks: [ OK ] 4 On all the nodes, verify that all the ASM disks are visible by typing: # /etc/init.
Installing Oracle RAC 10g This section describes the steps required to install Oracle RAC 10g version 10.1.0.3, which involves installing CRS and installing the Oracle Database 10g software. Dell recommends that you create a seed database to verify that the cluster works correctly before you deploy it in a production environment. Installing CRS 1 Log in as root on the first node.
12 In the Oracle Cluster Registry window, enter the complete path of the OCR disk location (/dev/raw/ocr.dbf) and click Next. NOTE: If you have used a shared OCFS2 partition for the OCR and the Voting Disk, enter the appropriate path. 13 In the Voting Disk window, enter a complete path for the partition to use for storing the Voting Disk (/dev/raw/votingdisk) and click Next. 14 In the Summary window, click Install. When the installation is completed, a message appears indicating that you must run the root.
9 In the Summary window, click Install. 10 When prompted, open a new terminal window. 11 Run root.sh on the first node. a Press to accept the default value for the local bin directory. The Virtual Internet Protocol Configuration Assistant (VIPCA) starts. b On the first VIPCA window, click Next.
Patching CRS to 10.1.0.5 1 Log in as oracle on the first node. 2 Start the Oracle installer by typing: /oracle_cds/10.1.0.5/Disk1/runInstaller 3 In the Welcome window, click Next. 4 In the Specify File Locations window, ensure that the source path points to the products.xml file of the 10.1.0.5 staging area. 5 In the Destination section select the CRS home name from the drop-down menu. Ensure that the path points to the CRS home and click Next.
7 In the Selected Nodes window, ensure that all the member nodes of the 10.1.0.3 installation are displayed and click Next. 8 In the Summary window, click Install. The installer prompts you to run the root.sh script on all the nodes after the process is completed. 9 Log in as root on each node and run the root.sh script from the database home location. 10 Exit the installer after running this script from all the nodes.
Creating the Seed Database This section contains procedures for creating the seed database using either OCFS2 or ASM and for verifying the seed database. Creating the Seed Database Using OCFS2 1 On the first node, as the user oracle, type dbca -datafileDestination /u01 to start the Database Configuration Assistant (DBCA). 2 In the Welcome window, select Oracle Real Application Cluster Database and click Next. 3 In the Operations window, click Create a Database and click Next.
18 Click Exit. A message appears indicating that the cluster database is being started on all nodes. 19 On each node, perform the following steps: a Determine which database instance exists on that node by typing: srvctl status database -d b Add the ORACLE_SID environment variable entry in the oracle user profile by typing: echo "export ORACLE_SID=racdbx" >> /home/oracle/.bash_profile source /home/oracle/.bash_profile where racdbx is the database instance identifier assigned to the node.
15 Enter the information in the Disk Group window for the flashback recovery files and click OK. Enter a name for the disk group to be created, such as flashbackDG, select External Redundancy, and select the disks to include in the disk group (for example, /dev/raw/ASM2). A window appears indicating that disk group creation is in progress. 16 In the ASM Disk Groups window, check the disk group that you would like to use for database storage (for example, databaseDG) and click Next.
27 On any one node, type: srvctl status database -d dbname where dbname is the global identifier name that you defined for the database in DBCA. If the database instances are running, confirmation appears on the screen. If the database instances are not running, type: srvctl start database -d dbname where dbname is the global identifier name that you defined for the database in DBCA.
Configuring and Deploying Oracle Database 10g (Single Node) This section provides information about completing the initial setup or completing the reinstallation procedures as described in "Installing and Configuring Red Hat Enterprise Linux.
7 Type: mke2fs -j /dev/sdb1 mke2fs -j /dev/sdc1 8 Modify the /etc/fstab file by adding an entry for the newly created file system. 9 Type: mount /dev/sdb1 /opt/oracle/oradata mount /dev/sdc1 /opt/oracle/recovery 10 Type: chown oracle.dba oradata recovery Configuring Shared Storage Using ASM The partitions can be configured as raw devices or can be configured using the ASMLib software.
A message appears prompting you to load the oracleasm driver on boot. To load the driver, type y as mentioned below: Start Oracle ASM library driver on boot (y/n) [n]: y A message appears prompting you to fix permissions of Oracle ASM disks on boot.
4 Create a primary partition for the entire device by typing: fdisk /dev/sdc 5 Edit the /etc/sysconfig/rawdevices file and add the following lines: /dev/raw/ASM1 /dev/sdb1 /dev/raw/ASM2 /dev/sdc1 6 Restart the Raw Devices Service by typing: service rawdevices restart Installing Oracle Database 10g Perform the following procedure to install Oracle Database 10g: 1 Log in as root. 2 Mount the CD Oracle Database 10g CD 1.
Applying the 10.1.0.5 Patchset 1 Download the 10.1.0.5 patchset from Oracle MetaLink (p4505133_10105_LINUX.ZIP). 2 Copy the patchset to the folder /oracle_cds/10.1.0.5 on one of the nodes. 3 Unzip the patchset by typing: unzip p4505133_10105_LINUX.ZIP 4 Change the ownership of the 10.1.0.5 directory by typing: chown -R oracle.dba /oracle_cds/10.1.0.5 Patching the Database to 10.1.0.5 Patchset 1 Log in as oracle. 2 Start the Oracle installer by typing: /oracle_cds/10.1.0.
Creating the Seed Database Creating the Seed Database Using ext3 File System Perform the following steps to create a seed database with the Oracle DBCA: 1 Log in as oracle. 2 Start the Oracle DBCA by typing: dbca 3 In the Welcome window, click Next. 4 In the Operations window, click Create a Database and click Next. 5 In the Database Templates window, click Custom Database and click Next.
18 Type: export ORACLE_SID=dbname where dbname is the global identifier name that you defined for the database in DBCA.
14 Enter the information in the Disk Group window for the flashback recovery files and click OK. Enter a name for the disk group to be created, such as flashbackDG, select External Redundancy, and select the disks to include in the disk group (for example, /dev/raw/ASM2). A window appears indicating that disk group creation is in progress. 15 In the ASM Disk Groups window, check the disk group that you would like to use for database storage (for example, databaseDG) and click Next.
Adding and Removing Nodes This section describes the steps to add a node to an existing cluster and the steps to remove a node from a cluster. To add a node to an existing cluster: • Add the node to the network layer. • Configure shared storage. • Add the node to the clusterware, database, and database instance layers. To remove a node from an existing cluster, reverse the process by removing the node from the database instance, the database, and the clusterware layers.
If the new partitions do not appear in the /proc/partitions file, type: sfdisk -R /dev/ 1 Start the raw devices by typing: udevstart 2 Edit the /etc/sysconfig/rawdevices file and add the following lines for a Fibre Channel cluster: /dev/raw/votingdisk /dev/emcpowera1 /dev/raw/ocr.dbf /dev/emcpowera2 /dev/raw/spfile+ASM.
Start Oracle ASM library driver on boot (y/n) [n]: y A message appears prompting you to fix permissions of Oracle ASM disks on boot.
3 Stop all the database instances by typing the following command as the user oracle on one of the existing nodes: srvctl stop database -d 4 Stop CRS and unmount all the OCFS2 partitions by typing the following command on all the nodes: /etc/init.d/init.crs stop umount -a -t ocfs2 5 To add the new node to the OCFS2 configuration file /etc/ocfs2/cluster.
8 Restart the O2CB service on all the existing nodes by typing: /etc/init.d/o2cb stop /etc/init.d/o2cb start 9 On all the nodes, mount all the volumes listed in the /etc/fstab file by typing: mount -a -t ocfs2 10 On the new node, add the following command to the /etc/rc.local file: mount -a -t ocfs2 11 On all the nodes other than the newly added one, start CRS and the database by performing the following steps: a As the user root, type: /etc/init.d/init.
Adding a New Node to the Database Layer 1 Log in as oracle on one of the existing nodes. 2 Start the Oracle Universal Installer from the /opt/oracle/product/10.1.0/db_1/oui/bin directory by typing: addNode.sh 3 In the Welcome window, click Next. 4 In the Specify Cluster Nodes for Node Addition window, click the new node and click Next. If all the verification checks pass, the Node Addition Summary window appears. 5 Click Next.
Adding a New Node to the Database Instance Layer 1 On one of the existing nodes, start DBCA as the user oracle by typing: dbca 2 In the Welcome window, select Oracle Real Application Cluster Database and click Next. 3 In the Operations window, click Instance Management and click Next. 4 In the Instance Management window, click Add Instance and click Next. 5 In the List of Cluster Databases window, select the existing database.
5 In the List of Cluster Databases window, select a RAC database from which to delete an instance. If your user name is not operating-system authenticated, DBCA prompts you for a user name and password for a database user with SYSDBA privileges. 6 Enter the user name sys and the password, and click Next. The List of Cluster Database Instances window appears, showing the instances associated with the RAC database that you selected and the status of each instance.
Removing a Node From the Clusterware Layer 1 Disable CRS on the node that you are deleting by typing the following as the user root: /opt/oracle/product/10.1.0/crs_1/install/rootdelete.sh remote nosharedvar 2 On one of the remaining nodes, as the user root, type the following: /opt/oracle/product/10.1.0/crs_1/install/rootdeletenode.sh , To determine the node number of any node, type the following: /opt/oracle/product/10.1.
4 On one of the existing nodes, update the OCFS2 cluster by performing the following steps: a Delete the entry for the deleted node and update the nodecount parameter. b Start the X Window System by typing: startx c As the user root, type: ocfs2console d From the menu, click Cluster→ Propagate Configuration. Propagate Cluster Configuration window appears. Wait until the message Finished appears on the window and then click Close. e Select File→ Quit. 5 Reboot all the existing nodes.
Additional Information Supported Software Versions NOTE: For this release of Dell supported configurations for Oracle, Emulex HBAs are not supported. Table 1-6 lists the supported software at the time of release. For the latest supported hardware and software, see the Dell|Oracle Tested and Validated Configurations website at www.dell.com/10g and download the Oracle Database 10g EM64T x86 Version 1.2 Solution Deliverable List for the latest supported versions. Table 1-6.
Table 1-6. Supported Software Versions (continued) Software Component Supported Versions Intel PRO/100 S NIC drivers (e100) 6.1.16-k3-NAPI Intel PRO/1000 MT NIC drivers (e1000) 6.1.16-k3-NAPI Broadcom NetXtreme BCM5704 NIC drivers(5703, 5701)(tg3) 3.
See the Dell OpenManage Server Administrator User's Guide for instructions about uninstalling the managed system software. To configure the automatic reboot option, perform the following steps: 1 Type: omconfig system recovery action=reboot This command sets the automatic reboot timer to a default setting of 480 seconds—the time delay before the timer automatically reboots an unresponsive system.
3 Determine which driver module your private NIC uses. The Broadcom NetXtreme Gigabit uses tg3, and the Intel PRO/1000 family uses e1000. 4 View the /etc/modprobe.conf file by typing: more /etc/modprobe.conf Several lines appear with the format alias ethX driver-module, where X is the Ethernet interface number and driver-module is the module you determined in step 3. For example, the line alias eth1 tg3 appears if your operating system assigned eth1 to a Broadcom NetXtreme Gigabit NIC.
Troubleshooting Table 1-8 provides recommended actions for problems that you may encounter while deploying and using your Red Hat Enterprise Linux and the Oracle software. Table 1-8. Category Troubleshooting Problem / Symptom Cause Recommended Corrective Action Performance Red Hat Enterprise The Oracle System Global and stability Linux exhibiting Area (SGA) exceeds the poor performance recommended size. and instability. Excessive use of swap space.
Table 1-8. 56 Troubleshooting (continued) Category Problem / Symptom Cause Recommended Corrective Action Net Configuratio n Assistant (NETCA) NETCA fails, resulting in database creation errors. The public network, host name, or virtual IP is not listed in the /etc/hosts.equiv file. Before launching netca, ensure that a host name is assigned to the public network and that the public and virtual IP addresses are listed in the /etc/hosts.equiv file.
Table 1-8. Troubleshooting (continued) Category Problem / Symptom Cause CRS When you run root.sh following reinstallation, CRS fails to start. The OCR file and Voting Disk have not been cleared and contain old information. Recommended Corrective Action 1 Clear the OCR and Voting Disks by typing the following lines: dd if=/dev/zero of=/dev/raw/ocr.
Table 1-8. Troubleshooting (continued) Category Problem / Symptom Cause CRS Node continually reboots. The node does not have access to the quorum disk on shared storage. Recommended Corrective Action 1 Start Linux in single user mode. 2 Type: /etc/init.d/init.crs disable 3 Verify that the quorum disk is available for read and write. If it is not available, check hardware connections and ensure that OCFS volumes are mounted. 4 Reboot and type /etc/init.d/init.
Table 1-8. Troubleshooting (continued) Category Problem / Symptom Cause Recommended Corrective Action Fibre Channel storage You receive I/O The HBA driver, BIOS, or errors and warnings firmware needs to be when you load the updated. Fibre Channel HBA driver module. Check the Solution Deliverable List for the supported versions on the Dell|Oracle Tested and Validated Configurations website at www.dell.com/10g. Update as required the driver, BIOS, and firmware for the Fibre Channel HBAs.
Oracle Support For training information for your Oracle software and application clusterware, see the Oracle website at www.oracle.com or see your Oracle documentation for information on contacting Oracle. Technical support, downloads, and other technical information are available on the Oracle MetaLink website at metalink.oracle.com. Obtaining and Using Open Source Files The software contained on the Dell Deployment CD is an aggregate of third-party programs as well as Dell programs.
Index A adding and removing nodes, 41 additional configuration options adding and removing nodes, 41 additional information, 51 configuring automatic reboot, 52 determining the private network interface, 53 ASM configuring database storage, 34 ASM configuration, 21 B bonding, 15 C cluster Fibre Channel hardware connections, example, 11 cluster setup Fibre Channel, 10 configuring ASM, 21 database storage (single node), 33 database storage (single node) using ASM, 34 database storage (single node) using ex
Index G N getting help, 59 node adding and removing, 41 removing, 47 H hardware Fibre Channel cluster minimum requirements, 6 Fibre Channel interconnections, 12 single-node minimum requirements, 7 hardware and software configurations Fibre Channel, 13 Hugemem, 9, 13 I installing CRS, 24 Oracle Database 10g, 25 Oracle Database 10g (single node), 36 Oracle RAC 10g, 24 Red Hat Enterprise Linux, 8 using Dell Deployment CD, 8 integrated NICs, 53 O OCFS configuration, 19 62 Index remote shell (rsh)
Dell™ PowerEdge™ 系统 Oracle Database 10g 企业版 — 适用于 Intel® 32 位技术 (x86) 的 Linux 部署指南 2.2 版 w w w. d e l l . c o m | s u p p o r t . d e l l .
注和注意 注:注表示可以帮助您更好地使用计算机的重要信息。 注意:注意表示可能会损坏硬件或导致数据丢失,并告诉您如何避免此类问题。 ____________________ 本说明文件中的信息如有更改,恕不另行通知。 © 2006 Dell Inc. 版权所有,翻印必究。 未经 Dell Inc. 书面许可,严禁以任何形式进行复制。 本文中使用的商标: Dell、DELL 徽标、OpenManage 和 PowerEdge 是 Dell Inc. 的商标; EMC、PowerPath 和 Navisphere 是 EMC Corporation 的注册商标; Intel 和 Xeon 是 Intel Corporation 的注册商标; Red Hat 是 Red Hat, Inc. 的注册商标。 本文件中述及的其它商标和产品名称是指拥有相应商标和名称的公司或其制造的产品。Dell Inc.
目录 Oracle RAC 10g 部署服务 . 软件和硬件要求 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 69 69 许可协议 . . . 重要说明文件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 安装和配置 Red Hat Enterprise Linux . . . . . . . . . . . . . . . . . . . . . 使用 Deployment CD 安装 Red Hat Enterprise Linux 配置 Hugemem 内核 . . . . . . . . . . . . . . . . . 配置 Red Hat Enterprise Linux .
添加和删除节点 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 102 103 103 107 108 109 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 113 114 115 故障排除 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 获得帮助 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
本说明文件提供有关在 Dell|Oracle 支持的配置上安装、配置、重新安装和使用 Oracle Database 10g 企 业版及 Real Application Clusters (RAC) 软件的信息。 注:请将本说明文件与 Dell™ Deployment CD 配合使用来安装软件。如果您仅使用操作系统 CD 来安装操作 系统,则本说明文件中的说明可能不适用。 包括以下内容: • 软件和硬件要求 • 安装和配置 Red Hat® Enterprise Linux • 验证群集硬件与软件配置 • 为 Oracle RAC 10g 配置网络和存储 • 在多个节点上部署 Oracle RAC 10g 数据库和增补软件集并创建基础 (seed) 数据库 • 配置和部署 Oracle Database 10g(单个节点) • 添加和删除节点 • 重新安装软件 • 附加信息 • 故障排除 • 获得帮助 • 获取和使用开放源代码文件 有关 Dell 支持的 Oracle Database 10g 配置的详情,请参阅“经 Dell|Oracle 测试和验证的配置”
软件和硬件要求 在系统上安装 Oracle RAC 软件之前,请按照随套件提供的为 Oracle 数据库部署经 Dell 测试和验证的 配置说明文件中的说明操作,以便: • 从 Red Hat 网站 rhn.redhat.com 下载 Red Hat CD。 • 找到 Oracle CD 套件,或从 Oracle 网站 www.oracle.com 下载 Oracle 软件。 • 从“经 Dell|Oracle 测试和验证的配置”网站 www.dell.com/10g 下载 Dell Deployment CD 映像, 然后使用这些 CD 映像刻录 Dell Deployment CD。 表 1-1 列出了 Dell 支持的 Oracle 配置的基本软件要求。表 1-2 和表 1-3 列出了硬件要求。有关驱动程序 和应用程序最低软件版本的详情,请参阅“支持的软件版本”。 表 1-1. 软件要求 软件组件 配置 适用于 Intel® 32 位技术 (x86) 的 Red Hat 季度更新 3 适用于 32 位 Linux 的 Oracle 10g R1 10.1.0.
表 1-2. 最低硬件要求 — 光纤信道群集 硬件组件 配置 Dell PowerEdge™ 1750、 1850、 2600、 2650、 2800、 2850、 4600、 6600、 6650、6800 和 6850 系统(使用 Oracle 群集文件系统 [OCFS2] 或自动存储管理 [ASM] 时为二至八个节点) 3-GHz Intel Xeon® 处理器 1 GB 随机存取存储器 (RAM) 内部硬盘驱动器使用的 PowerEdge 可扩充 RAID 控制器 (PERC) 连接至一个 PERC 的两个 36 GB 硬盘驱动器 (RAID 1) 三个千兆位网络接口控制器 (NIC) 端口 两个光学主机总线适配器 (HBA) 端口 Dell|EMC CX200、 CX300、 CX400、 有关支持的配置信息,请访问 “经 Dell|Oracle 测试和验证的配置” 网站 www.dell.com/10g CX500 或 CX700 光纤信道存储系统 千兆位以太网交换机 (两个) 有关支持的配置信息,请访问 “经 Dell|Oracle 测试和验证的配置” 网站 www.dell.
安装和配置 Red Hat Enterprise Linux 注意:为确保正确地安装操作系统,在安装操作系统之前,应断开系统与所有外部存储设备的连接。 本节将向您介绍 Red Hat Enterprise Linux AS 操作系统的安装以及操作系统的配置以进行 Oracle 部署。 使用 Deployment CD 安装 Red Hat Enterprise Linux 1 从系统中断开所有外部存储设备的连接。 2 找到您的 Dell Deployment CD 以及带更新 3 的原始 Red Hat Enterprise Linux AS 4 CD。 3 将 Dell Deployment CD 1 插入 CD 驱动器,然后重新引导系统。 系统将引导至 Dell Deployment CD 1。 4 当屏幕上提示选择经测试和验证的配置时,键入 4 并按 键,以选择 Oracle 10g R1 EE on Red Hat Enterprise Linux 4 32bit Update 3(Red Hat Enterprise Linux 4 32 位更新 3 上的 Oracl
配置 Red Hat Enterprise Linux 在所有节点上,作为 root 用户登录并执行以下过程: 1 将 Dell Deployment CD 2 插入 CD 驱动器。 如果您使用 CD,请键入: /media/cdrom/install.sh 如果您使用 DVD,请键入: /media/cdrecorder/install.sh CD 中的内容将被复制到 /usr/lib/dell/dell-deploy-cd 目录中。 复制过程完成后,请键入以下命令将 CD 从 CD 驱动器中取出: umount /dev/cdrom 2 键入以下命令,浏览至包含从 Dell Deployment CD 安装的脚本的目录: cd /dell-oracle-deployment/scripts/standard 注:脚本将查找并验证安装的组件版本,并根据需要将组件更新为支持的级别。 3 键入以下命令,配置 Red Hat Enterprise Linux 以安装 Oracle: ./005-oraclesetup.py 4 键入以下命令以启动环境变量: source /root/.
使用 Red Hat Network 对系统软件包进行更新 Red Hat 会定期发布软件更新来修正错误、解决安全问题以及添加新功能。您可以通过 Red Hat Network (RHN) 服务下载这些更新。在使用 RHN 将系统软件更新为最新版本之前,请访问“经 Dell|Oracle 测 试和验证的配置”网站 www.dell.
图 1-1.
表 1-4.
光纤信道硬件和软件配置 • • 每个节点均必须包含满足以下最低要求的硬件外围组件: – 内部硬盘驱动器托架中的一个或两个硬盘驱动器(最少 36 GB) – 三个千兆位 NIC 端口 – 两个光纤信道 HBA 每个节点均必须安装以下软件: – Red Hat Enterprise Linux 软件(请参阅表 1-1) – 光纤信道 HBA 驱动程序 – 用于内核的 OCFS2 模块和用于 OCFS2 的配置工具 注:OCFS 支持两种内核,即 hugemem 和对称多处理 (SMP)。根据内核选择 OCFS 类型。 • 光纤信道存储设备必须具有以下配置: – 创建并分配给群集至少三个 LUN – LUN 大小至少为 5 GB 为 Oracle RAC 10g 配置网络和存储 本节介绍对运行基础 (seed) 数据库的光纤信道群集进行设置的信息,其中包括以下过程: • 配置公共和专用网络 • 保护系统 • 验证存储配置 • 使用 OCFS2 配置共享存储 • 使用 ASM 配置共享存储 配置 Oracle RAC 10g 数据库的过程非常复杂,要求按顺序
根据可用的 NIC 端口的数目,按照表 1-5 中所示配置网络接口。 表 1-5.
利用绑定功能配置专用网络 在部署群集之前,应将专用群集网络设置为允许节点之间相互通信。此过程包括配置网络绑定以及为 群集中的每个节点分配专用 IP 地址和主机名。要为 Broadcom 或 Intel NIC 设置网络绑定并配置专用 网络,请在每个节点上执行以下过程: 1 作为 root 用户登录。 2 在 /etc/modprobe.conf 文件中添加以下行: alias bond0 bonding 3 为了获得高可用性,请编辑 /etc/modprobe.conf 文件并设置链接监测选项。 miimon 的默认值为 0,该值会禁用链接监测功能。开始时将该值更改为 100 毫秒,然后根据需要 进行调整以便改善性能,如以下示例所示。键入: options bonding miimon=100 mode=1 4 在 /etc/sysconfig/network-scripts/ 目录中,创建或编辑 ifcfg-bond0 配置文件。 例如,使用样本网络参数时,该文件会显示如下: DEVICE=bond0 IPADDR=192.168.0.1 NETMASK=255.255.255.
6 在每个节点上,键入以下命令以验证专用接口是否正常工作: ifconfig 节点的专用 IP 地址应该分配给专用接口 bond0。 7 在每个节点上设置专用 IP 地址后,请从一个节点 ping 每个 IP 地址,以确保专用网络可以正常工作。 8 连接至每个节点,并键入以下命令以验证专用网络和 ssh 正常工作: ssh < 专用 IP> 9 在每个节点上,添加以下行来修改 /etc/hosts 文件: 127.0.0.1 localhost.
验证存储配置 配置群集时,在光纤信道存储设备上创建分区。要创建分区,所有群集节点均必须能够检测外部存储 设备。要验证是否每个节点都能检测各存储 LUN 或逻辑磁盘,请执行以下步骤: 1 对于 Dell|EMC 光纤信道存储系统,验证每个节点中是否均已安装了 EMC Navisphere® 代理和 正确版本的 PowerPath(请参阅表 1-6),以及是否已在 Navisphere 代理软件中将每个节点分配给 正确的存储组。有关说明,请参阅随 Dell|EMC 光纤信道存储设备附带的说明文件。 注:为您安装群集的 Dell 专业服务代表已执行此步骤。如果您在节点中重新安装软件,则必须完成 此步骤。 2 通过外观检查来验证存储设备和群集节点是否已正确连接至光纤信道交换机(请参阅图 1-1 和 表 1-4)。 3 验证您是否已作为 root 用户登录。 4 在每个节点上,键入: more /proc/partitions 节点将检测和显示 LUN 或逻辑磁盘,以及在这些外部设备上创建的分区。 注:列出的设备可能有所不同,视存储设备的配置方法而定。 屏幕将显示一个列表,列出节点检测到的 LUN 或逻辑
3 在所有节点上键入以下命令,重新启动 PowerPath 服务: service PowerPath start service naviagent start 4 键入以下命令,确认所有节点均能检测到外部存储设备: more /proc/partitions 使用 OCFS2 配置共享存储 可以使用 OCFS2 或 ASM 配置共享存储。本节介绍使用 OCFS2 配置共享存储的过程。 1 在第一个节点上,作为 root 用户登录。 2 请执行以下步骤: a 键入以下命令启动 X Window 系统: startx b 在终端中键入以下命令,生成具有 ocfs2 的默认群集名的 OCFS2 配置文件 (/etc/ocfs2/cluster.
4 5 使用以下步骤更改所有节点上的 O2CB_HEARTBEAT_THRESHOLD 值: a 键入以下命令,在所有节点上停止 O2CB 服务: /etc/init.d/o2cb stop b 在所有节点上,将 /etc/sysconfig/o2cb 中的 O2CB_HEARTBEAT_THRESHOLD 值编辑为 61。 c 键入以下命令,在所有节点上启动 O2CB 服务: /etc/init.d/o2cb start 对于光纤信道群集,在第一个节点上,使用 fdisk 在另外两个外部存储设备上各创建一个分区: a 键入以下命令,为整个设备创建主分区: fdisk /dev/emcpowerx 键入 h,获取 fdisk 公用程序内的帮助。 b 键入以下命令,验证新分区是否存在: cat /proc/partitions 如果没有看到新分区,则键入: sfdisk -R /dev/< 设备名称 > 注:以下步骤使用样本值 /u01 和 /u02 作为安装点,并使用 u01 和 u02 作为标记。 6 在任意一个节点上,使用命令行公用程序 mkfs.
使用 ASM 配置共享存储 为群集就绪服务 (CRS) 配置共享存储 要使用 ASM 配置共享存储,请执行以下步骤: 1 在第一个节点上,使用 fdisk 在外部存储设备上创建三个分区。 键入以下命令,创建三个各为 150 MB 的分区,其中一个分区用于群集库,一个用于投票磁盘, 另外一个用于 Oracle 系统参数文件: fdisk /dev/emcpowerx 2 在各个节点上,键入以下命令,验证这些新分区: more /proc/partitions 如果 /proc/partitions 文件中未显示新分区,请键入: sfdisk -R /dev/< 设备名称 > a 键入以下命令以启动原始设备: udevstart b 编辑 /etc/sysconfig/rawdevices 文件,添加以下用于光纤信道群集的行: /dev/raw/votingdisk /dev/emcpowera1 /dev/raw/ocr.dbf /dev/emcpowera2 /dev/raw/spfile+ASM.
This will configure the on-boot properties of the Oracle ASM library driver.(这将配置 Oracle ASM 库驱动程序的引导时属性。) The following questions will determine whether the driver is loaded on boot and what permissions it will have.(以下问题将确定是否在引导时载入驱动程序, 且确定驱动程序具有何种权限。) The current values will be shown in brackets ('[]').(方括号 ('[]') 中将显示当前值。) Hitting without typing an answer will keep that current value.(不键入应答, 而点击 ENTER,将保持当前值。) Ctrl-C will abort.
2 在任意一个节点上,将先前创建的分区标记为 ASM 磁盘。 # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk "/dev/emcpowerb1" as an ASM disk:(将磁盘 “/dev/emcpowerb1”标记为 ASM 磁盘:) [ OK ](确定) # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk "/dev/emcpowerc1" as an ASM disk:(将磁盘 “/dev/emcpowerc1”标记为 ASM 磁盘:) [ OK ](确定) 3 扫描所有节点上的 ASM 磁盘。 # /etc/init.d/oracleasm scandisks Scanning system for ASM disks:(正在扫描系统中的 ASM 磁盘:) [ OK ](确定) 4 在所有节点上,键入以下命令以验证所有 ASM 磁盘均可见: # /etc/init.
安装 Oracle RAC 10g 本节说明安装 Oracle RAC 10g 10.1.0.
13 在 Voting Disk(投票磁盘)窗口中,输入用于存储投票磁盘的分区的完整路径 (/dev/raw/votingdisk), 然后单击 Next(下一步)。 14 在 Summary(摘要)窗口中,单击 Install(安装)。 安装完成之后,屏幕上会显示一则信息,提示您必须在所有节点上运行 root.sh 脚本。root.sh 脚本 将自动配置群集。 15 出现提示后,打开新的终端窗口。 16 从步骤 15 中的同一终端窗口,作为 root 用户在每个节点上运行 root.sh 脚本,从本地节点开始。 在下一个节点上运行 root.sh 之前,要等到 root.
11 在第一个节点上,运行 root.sh。 a 按下 键以接受本地 bin 目录的默认值。 Virtual Internet Protocol Configuration Assistant(VIPCA,虚拟 Internet 协议配置助手)将会 启动。 b 在第一个 VIPCA 窗口上,单击 Next(下一步)。 c 在 List of Available Network Interfaces(可用网络接口列表)窗口中,选择公共 NIC,或者如果 您有四个 NIC 端口,选择保留给虚拟 IP 地址使用的端口(请参阅“配置公共和专用网络”), 并单击 Next(下一步)。 注:在该步骤中选择的公共和专用 NIC 分配对于所有节点均必须可用且完全相同。 d 在 Virtual IPs for Cluster Nodes(群集节点的虚拟 IP)窗口中,为显示的各个节点输入未使用 的公共虚拟 IP 地址和子网掩码,并单击 Next(下一步)。 虚拟 IP 地址必须与您在 /etc/hosts.
将 CRS 修补至 10.1.0.5 1 在第一个节点上,作为 oracle 用户登录。 2 键入以下命令以启动 Oracle 安装程序: /oracle_cds/10.1.0.5/Disk1/runInstaller 3 在 Welcome(欢迎)窗口中单击 Next(下一步)。 4 在 Specify File Locations(指定文件位置)窗口中,确保源路径指向 10.1.0.5 分级区域的 products.xml 文件。 5 在 Destination(目标)部分中,从下拉式菜单中选择 CRS 主目录名称。确保路径指向 CRS 主目录,然后单击 Next(下一步)。 6 在 Selected Nodes(所选节点)窗口中,确保显示安装了 10.1.0.3 的所有成员节点,然后单击 Next (下一步)。 7 在 Summary(摘要)窗口中,单击 Install(安装)。 安装程序将提示您停止 CRS 服务,并运行 root10105.sh 脚本。 8 在各个节点上,作为 root 登录,并从 CRS 主目录位置运行 root10105.
7 在 Selected Nodes(所选节点)窗口中,确保显示安装了 10.1.0.3 的所有成员节点,然后单击 Next (下一步)。 8 在 Summary(摘要)窗口中,单击 Install(安装)。 完成此过程后,安装程序将提示您在所有节点上运行 root.sh 脚本。 9 10 在各个节点上,作为 root 登录,并从数据库主目录位置运行 root.sh 脚本。 从所有节点运行该脚本之后,退出安装程序。 配置监听程序 本节将介绍配置监听程序的步骤,与数据库建立远程客户机连接时需要使用此程序。 在任意一个节点上,执行以下过程: 1 作为 root 用户登录。 2 键入以下命令启动 X Window 系统: startx 3 打开终端窗口,然后键入: xhost + 4 作为 oracle 用户,运行: source /home/oracle/.
创建基础数据库 本节包含利用 OCFS2 或 ASM 创建基础 (seed) 数据库和验证基础 (seed) 数据库的步骤。 使用 OCFS2 创建基础数据库 1 在第一个节点上,作为 oracle 用户,键入 dbca -datafileDestination /u01,以启动 Database Configuration Assistant(DBCA,数据库配置助手)。 2 在 Welcome(欢迎)窗口中,选择 Oracle Real Application Cluster Database(Oracle Real Application Cluster 数据库),然后单击 Next(下一步)。 3 在 Operations(操作)窗口中,单击 Create a Database(创建数据库),然后单击 Next(下一步)。 4 在 Node Selection(节点选择)窗口中,单击 Select All(全选),然后单击 Next(下一步)。 5 在 Database Templates(数据库模板)窗口中,单击 Custom Database(自定义数据库),然后 单击 Next
18 单击 Exit(退出)。 屏幕上会显示一则消息,提示正在所有节点上启动群集数据库。 19 在每个节点上,执行以下步骤: a 键入以下命令,确定该节点上存在的数据库实例: srvctl status database -d < 数据库名称 > b 键入以下命令,在 oracle 用户配置文件中,添加 ORACLE_SID 环境变量条目: echo "export ORACLE_SID=racdbx" >> /home/oracle/.bash_profile source /home/oracle/.
13 在 Disk Group(磁盘组)窗口中输入数据库文件的相关信息,然后单击 OK(确定)。 为准备创建的磁盘组输入名称,例如 databaseDG,选择 External Redundancy(外部冗余), 然后选择要包括在磁盘组(例如,/dev/raw/ASM1)中的磁盘。 屏幕上显示一个窗口,提示正在创建磁盘组。 14 在 Available Disk Groups(可用磁盘组)下,单击 Create New(新建)。 15 在 Disk Group(磁盘组)窗口中输入回闪恢复文件的相关信息,然后单击 OK(确定)。 为准备创建的磁盘组输入名称,例如 flashbackDG,选择 External Redundancy(外部冗余), 然后选择要包括在磁盘组(例如,/dev/raw/ASM2)中的磁盘。 屏幕上显示一个窗口,提示正在创建磁盘组。 16 在 ASM Disk Groups(ASM 磁盘组)窗口中,选择要用于数据库存储的磁盘组(例如,databaseDG), 然后单击 Next(下一步)。 17 在 DataBase File Locations(数据库文件位置)窗口中,
26 在每个节点上执行以下步骤: a 键入以下命令,确定该节点上存在的数据库实例: srvctl status database -d < 数据库名称 > b 键入以下命令,在 oracle 用户配置文件中添加 ORACLE_SID 环境变量条目: echo "export ORACLE_SID=racdbx" >> /home/oracle/.bash_profile source /home/oracle/.
为 oracle 用户设置密码 Dell 郑重建议您为 oracle 用户设置密码,以便保护您的系统。完成以下步骤,以创建 oracle 用户的密码: 1 作为 root 用户登录。 2 通过键入以下命令并执行屏幕上的说明,创建 oracle 用户的密码: passwd oracle 配置和部署 Oracle 数据库 10g(单个节点) 本节介绍有关完成在“安装和配置 Red Hat Enterprise Linux”所述的初始设置或完成重新安装过程的 信息。本节包括以下主题: • 配置公共网络 • 配置数据库存储 • 安装 Oracle Database 10g • 配置监听程序 • 创建基础数据库 • 为 oracle 用户设置密码 配置公共网络 请确保您的公共网络正常运行,并且已为您的系统分配了 IP 地址和主机名。 配置数据库存储 使用 ext3 文件系统配置数据库存储 如果您具有附加存储设备,请执行以下步骤: 94 1 作为 root 用户登录。 2 键入: cd /opt/oracle 3 键入: mkdir oradata recovery 4
6 键入以下命令,验证新分区: cat /proc/partitions 如果没有看到新分区,则键入: sfdisk -R /dev/sdb sfdisk -R /dev/sdc 7 键入: mke2fs -j /dev/sdb1 mke2fs -j /dev/sdc1 8 为新创建的文件系统添加一个条目来修改 /etc/fstab 文件。 9 键入: mount /dev/sdb1 /opt/oracle/oradata mount /dev/sdc1 /opt/oracle/recovery 10 键入: chown oracle.
屏幕将出现一条信息,提示您输入拥有驱动程序接口的默认用户。按以下所示键入 oracle: Default user to own the driver interface(拥有驱动程序接口的默认用户) []: oracle 屏幕将出现一条信息,提示您输入拥有驱动程序接口的默认组。按以下所示键入 dba: Default group to own the driver interface(拥有驱动程序接口的默认组) []: dba 屏幕将出现一条信息,提示您在引导时载入 oracleasm 驱动程序。要载入驱动程序,请按以下 所示键入 y: Start Oracle ASM library driver on boot(引导时启动 Oracle ASM 库驱动 程序)(y/n) [n]: y 屏幕将出现一条信息,提示您在引导时修复 Oracle ASM 磁盘的权限。按以下所示键入 y: Fix permissions of Oracle ASM disks on boot(引导时修复 Oracle ASM 磁盘的权限)(y/n) [y]: y 屏幕显示以下信息: Writing Oracle ASM libra
使用原始设备配置共享存储 1 作为 root 用户登录。 2 键入下列命令,更改原始字符设备的名称,使设备能够被识别: mv /dev/raw/raw1 /dev/raw/ASM1 mv /dev/raw/raw2 /dev/raw/ASM2 chown oracle.dba /dev/raw/ASM1 chown oracle.
8 在 Specify File Locations(指定文件位置)窗口中,验证完整的 Oracle 主目录路径是否为 /opt/oracle/product/10.1.0/db_1,然后单击 Next(下一步)。 9 在 Select a Product to Install(选择要安装的产品)窗口中,单击 Oracle Database 10g 10.1.0.3.0, 然后单击 Next(下一步)。 10 在 Select Installation Types(选择安装类型)窗口中,单击 Enterprise Edition(企业版),然后 单击 Next(下一步)。 11 在 Select Database Configuration(选择数据库配置)窗口中,单击 Do not create a starter database (不创建启动程序数据库),然后单击 Next(下一步)。 12 在 Summary(摘要)窗口中单击 Install(安装)。 13 出现提示时,打开终端窗口并运行 root.
8 在 Summary(摘要)窗口中,单击 Install(安装)。 完成此过程后,安装程序将提示您在所有节点上运行 root.sh 脚本。 9 10 在各个节点上,作为 root 登录,并从数据库主目录位置运行 root.
11 在 Recovery Configuration(恢复配置)窗口中,单击 Browse(浏览),选择您在“使用 ext3 文件 系统配置数据库存储”中创建的回闪恢复区域(例如,/opt/oracle/recovery),然后单击 Next(下一步)。 12 在 Database Content(数据库内容)窗口中,单击 Next(下一步)。 13 在 Initialization Parameters(初始化参数)窗口中,单击 Next(下一步)。 14 在 Database Storage(数据库存储)窗口中,单击 Next(下一步)。 15 在 Creation Options(创建选项)窗口中,单击 Create Database(创建数据库),然后单击 Finish (完成)。 16 在 Confirmation(确认)窗口中,单击 OK(确定)以创建数据库。 注:基础 (seed) 数据库的创建过程可能需要一个多小时。 数据库创建完成后,屏幕上将显示 Password Management(密码管理)窗口。 17 单击 Exit(退出)。 18 键入: expor
6 在 Management Options(管理选项)窗口中,单击 Next(下一步)。 7 在 Database Credentials(数据库证书)窗口中,单击 Use the Same Password for All Accounts (对所有帐户使用相同密码),完成密码输入,然后单击 Next(下一步)。 8 在 Storage Options(存储选项)窗口中,单击 ASM,然后单击 Next(下一步)。 9 在 Create ASM Instance(创建 ASM 实例)窗口中,输入 SYS 用户的密码,然后单击 Next (下一步)。 10 当显示的消息表明 DBCA 已就绪,可以创建和启动 ASM 实例时,单击 OK(确定)。 11 在 ASM Disk Groups(ASM 磁盘组)窗口中的 Available Disk Groups(可用磁盘组)下,单击 Create New(新建)。 12 在 Create Disk Group(创建磁盘组)窗口中,输入数据库文件的存储信息,然后单击 OK(确定)。 为准备创建的磁盘组输入名称,例如 databaseDG,选
23 单击 Exit(退出)。 24 键入以下命令,在 oracle 用户配置文件中添加 ORACLE_SID 环境变量条目: echo "export ORACLE_SID=oradb" >> /home/oracle/.bash_profile source /home/oracle/.
在新节点上配置共享存储 要将现有 RAC 数据库扩展到新节点,请为新节点配置存储,使新节点的存储与现有节点上的相同。 本节提供了使用 ASM 或 OCFS2 进行配置的相应步骤。 使用 ASM 配置共享存储 为 CRS 配置共享存储 要使用 ASM 配置共享存储,请执行以下步骤: 在新节点上,键入以下命令,验证这些新分区: more /proc/partitions 如果 /proc/partitions 文件中未显示新分区,请键入: sfdisk -R /dev/< 设备名称 > 1 键入以下命令以启动原始设备: udevstart 2 编辑 /etc/sysconfig/rawdevices 文件,添加以下用于光纤信道群集的行: /dev/raw/votingdisk /dev/emcpowera1 /dev/raw/ocr.dbf /dev/emcpowera2 /dev/raw/spfile+ASM.
使用 ASMLib 配置共享存储 要使用 ASM 配置群集,请在新节点上执行以下步骤: 1 作为 root 用户登录。 2 键入以下命令,配置 ASM 内核模块: /etc/init.d/oracleasm configure 屏幕上将显示以下信息: Configuring the Oracle ASM library driver.(正在配置 Oracle ASM 库驱动程序。) This will configure the on-boot properties of the Oracle ASM library driver.(这将配置 Oracle ASM 库驱动程序的引导时属性。) The following questions will determine whether the driver is loaded on boot and what permissions it will have.(以下问题将确定是否在引导时载入驱动程序,且确定 驱动程序具有何种权限。) The current values will be shown in brackets ('[]').
3 键入以下命令,扫描 ASM 磁盘: /etc/init.d/oracleasm scandisks Scanning system for ASM disks:(正在扫描系统中的 ASM 磁盘:) [ OK ](确定) 4 键入以下命令,以验证所有 ASM 磁盘均可见: /etc/init.
5 要将新节点添加至 OCFS2 配置文件 /etc/ocfs2/cluster.conf,请在其中一个现有节点上执行以下步骤: a 键入以下命令启动 X Window 系统: startx b 在终端窗口中键入以下命令,生成具有 ocfs2 的默认群集名的 OCFS2 配置文件 (/etc/ocfs2/cluster.
11 在除新添加节点外的 所有节点上,执行以下步骤以启动 CRS 和数据库: a 作为 root 用户,键入: /etc/init.d/init.crs start b 作为 oracle 用户,键入: srvctl start database -d 将新节点添加到群集件层 1 在其中一个现有节点上,作为 oracle 用户登录。 2 键入下列命令,从 /opt/oracle/product/10.1.0/crs_1/oui/bin 目录中启动 Oracle Universal Installer (Oracle 通用安装程序): addNode.
将新节点添加到数据库层 1 在其中一个现有节点上,作为 oracle 用户登录。 2 键入下列命令,从 /opt/oracle/product/10.1.0/db_1/oui/bin 目录中启动 Oracle Universal Installer (Oracle 通用安装程序): addNode.sh 3 在 Welcome(欢迎)窗口中单击 Next(下一步)。 4 在 Specify Cluster Nodes for Node Addition(指定节点添加的群集节点)窗口中,单击新节点, 然后单击 Next(下一步)。 如果所有验证检查均已通过,则会显示 Node Addition Summary(节点添加摘要)窗口。 5 单击 Next(下一步)。 Cluster Node Addition Progress(群集节点添加进度)窗口会显示群集节点添加进度的状态。 6 出现提示时,在新节点上运行 root.sh。 root.
将新节点添加到数据库实例层 1 在其中一个现有节点上,作为 oracle 用户,键入以下命令以启动 DBCA: dbca 2 在 Welcome(欢迎)窗口中,选择 Oracle Real Application Cluster Database(Oracle Real Application Cluster 数据库),然后单击 Next(下一步)。 3 在 Operations(操作)窗口中,单击 Instance Management(实例管理),然后单击 Next(下一步)。 4 在 Instance Management(实例管理)窗口中,单击 Add Instance(添加实例),然后单击 Next (下一步)。 5 在 List of Cluster Databases(群集数据库列表)窗口中,选择现有的数据库。 如果您的用户名并未经过操作系统验证,DBCA 会提示您输入具有 SYSDBA 权限的数据库用户名 和密码。 6 输入用户名 sys 和密码,然后单击 Next(下一步)。 屏幕将显示 List of cluster database instances(群集数据库实
4 在 Instance Management(实例管理)窗口中,单击 Delete Instance(删除实例),然后单击 Next (下一步)。 5 在 List of Cluster Databases(群集数据库列表)窗口中,选择要删除的实例所在的 RAC 数据库。 如果您的用户名并未经过操作系统验证,DBCA 会提示您输入具有 SYSDBA 权限的数据库用户名 和密码。 6 输入用户名 sys 和密码,然后单击 Next(下一步)。 屏幕将显示 List of cluster database instances(群集数据库实例列表)窗口,其中显示了与选定 RAC 数据库相关的实例以及每个实例的状态。 7 选择要删除的实例,然后单击 Finish(完成)。 此实例不能是运行 DBCA 所在的本地实例。如果您选择本地实例,DBCA 将显示 Error(错误) 对话框。如果出现此对话框,请单击 OK(确定)并选择另一个实例,然后单击 Finish(完成)。 如果服务已分配给该实例,则会显示 DBCA Services Management(DBCA 服务管理)窗口。使用 该窗口将服务重新分
从群集件层删除节点 1 作为 root 用户键入以下命令,在要删除的节点上禁用 CRS: /opt/oracle/product/10.1.0/crs_1/install/rootdelete.sh remote nosharedvar 2 在其它某个节点上,作为 root 用户键入以下命令: /opt/oracle/product/10.1.0/crs_1/install/rootdeletenode.sh <公共节点名称>, < 节点号 > 要确定任何节点的节点号,请键入下列命令: /opt/oracle/product/10.1.0/crs_1/bin/olsnodes -n 3 在要删除的节点上,如果要删除 Oracle CRS 软件,请键入以下命令: rm -rf /opt/oracle/product/10.1.
4 5 在其中一个现有节点上,执行以下步骤来更新 OCFS2 群集: a 删除所删除节点所对应的条目并更新 nodecount(节点数)参数。 b 键入以下命令启动 X Window 系统: startx c 作为 root 用户,键入: ocfs2console d 从菜单中,单击 Cluster(群集)→ Propagate Configuration(传播配置)。屏幕将显示 Propagate Cluster Configuration(传播群集配置)窗口。请等候,直到窗口中显示信息 Finished(完成),然后单击 Close(关闭)。 e 选择 File(文件)→ Quit(退出)。 重新引导所有现有节点。 重新安装软件 注意:重新安装软件将会清除硬盘驱动器上的所有数据。 注意:在重新安装软件之前,必须从系统中断开所有外部存储设备的连接。 注意:Dell 建议您定期对数据库和个别节点进行备份,以免丢失重要数据。仅在您没有其它选择时, 才重新安装节点软件。 使用 Dell Deployment CD 安装软件时已在您的硬盘驱动器上创建了重新部署分区,其中包含了系统上 安装的
附加信息 支持的软件版本 注:Dell 支持的 Oracle 配置这一版本不支持 Emulex HBA。 表 1-6 列出了发行时支持的软件。要了解支持的最新硬件和软件,请访问“经 Dell|Oracle 测试和验证 的配置”网站 www.dell.com/10g,并下载 Oracle Database 10g EM64T x86 1.2 版 Solution Deliverable List (可提供的解决方案列表),以获得支持的最新版本。 表 1-6. 支持的软件版本 软件组件 支持的版本 适用于 Intel x86 的 Red Hat Enterprise Linux AS (第 4 版)季度更新 3 操作系统 2.6.9-34.EL Oracle 增补软件集 10.1.0.5 OCFS2 ocfs2-2.6.9-34.EL-1.2.2-1; ocfs2-2.6.9-34.ELhugemem1.2.2-1; ocfs2-2.6.9-34.ELsmp-1.2.2-1 PowerPath for Linux 4.5.1 Qlogic HBA 2340 驱动程序 8.01.
表 1-6. 支持的软件版本 (续) 软件组件 支持的版本 Intel PRO/100 S NIC 驱动程序 (e100) 6.1.16-k3-NAPI Intel PRO/1000 MT NIC 驱动程序 (e1000) 6.1.16-k3-NAPI Broadcom NetXtreme BCM5704 NIC 驱动程序 (5703、5701)(tg3) 3.43-rh 配置暂挂操作系统的自动重新引导 通过执行以下步骤,安装 Red Hat Enterprise Linux 的管理型系统软件: 1 在您准备安装管理型系统组件的系统上,使用管理员权限登录。 2 退出已打开的所有应用程序,并且禁用任何病毒扫描软件。 3 键入以下命令启动 X Window 系统: startx 4 打开终端窗口,然后键入: xhost + 5 将 Dell PowerEdge Installation and Server Management CD 插入系统的 CD 驱动器。 6 键入以下命令,装入该 CD mount /dev/cdrom 7 单击 CD 根目录下的 start.
有关卸载管理型系统软件的说明,请参阅《Dell OpenManage Server Administrator 用户指南》。 要配置自动重新引导选项,请执行以下步骤: 1 键入: omconfig system recovery action=reboot 此命令会将自动重新引导计时器设置为默认的 480 秒设置,这是计时器在自动重新引导无反应系统 之前的延迟时间。 2 要将计时器设置更改为不同的值,请键入: omconfig system recovery timer=< 秒数 > 3 要验证系统重新引导计时器设置,请键入: omreport system recovery 确定专用网络接口 要确定为每个网络接口分配的接口设备名称,请执行以下步骤: 1 确定系统中的 NIC 类型。 查看表 1-7,以确定系统中提供的集成 NIC。您的添加式 NIC 可能是 Intel PRO/100 系列或 PRO/1000 系列插卡,也可能是 Broadcom NetXtreme Gigabit 插卡。您可能需要打开系统, 然后查看以确定您配备的添加式插卡。 表 1-7.
2 验证 Broadcom NetXtreme Gigabit 或 Intel PRO/1000 系列 NIC 是否已使用 Cat 5e 电缆连接至千兆 位以太网交换机。这是您的专用 NIC。 3 确定您的专用 NIC 所使用的驱动程序模块。 Broadcom NetXtreme Gigabit 使用的是 tg3,Intel PRO/1000 系列使用的是 e1000。 4 键入以下命令查看 /etc/modprobe.conf 文件: more /etc/modprobe.conf 屏幕将以 alias ethX 驱动程序模块格式显示几行文本,其中,X 是以太网接口号,驱动程序 模块是在步骤 3 中确定的模块。 例如,如果操作系统已将 eth1 分配给 Broadcom NetXtreme Gigabit NIC,则屏幕将显示 alias eth1 tg3 文本行。 5 确定已将哪些以太网接口 (ethX) 分配给连接至千兆位交换机的千兆位 NIC 类型。 如果 modules.
故障排除 表 1-8 提供了在部署或使用 Red Hat Enterprise Linux 和 Oracle 软件时可能遇到的问题的建议操作。 表 1-8.
表 1-8. 故障排除 (续) 类别 问题/症状 原因 CRS 当您重新引导节点 群集就绪服务 CSS 守护 或键入 程序无法向仲裁磁盘写入 /etc/init.d/ 数据。 init.crs start 时,CRS 无法启动 CRS 在运行 root.sh 时, 检查并确保已定义了公共和 在解决网络问题之后,尝试重新引导节点或从 CRS 无法启动。 专用节点名称并且可以对节 /opt/oracle/product/10.1.0/crs_1/ 中运行 root.sh, 点名称执行 ping 命令。 再次启动服务。 CRS 在运行 root.sh 时, OCR 文件和投票磁盘无法 解决 I/O 问题,并尝试重新引导节点或从 CRS 无法启动。 访问。 /opt/oracle/product/10.1.0/crs_1/ 中运行 root.sh, 再次启动服务。 CRS 在重新安装之后 运行 root.sh 时, CRS 无法启动。 OCR 文件和投票磁盘尚 未清除,仍包含旧信息。 建议的纠正措施 • 尝试重新引导节点或从 /opt/oracle/product/10.1.
表 1-8. 故障排除 (续) 类别 问题/症状 原因 CRS 在运行 root.sh 时, 已尝试其它的 CRS 故障 CRS 无法启动。 排除步骤,但没有成功。 建议的纠正措施 1 将以下文本行添加到 root.sh,启用调试功能: set -x 2 尝试从 /opt/oracle/product/10.1.0/crs_1/ 中运行 root.
表 1-8. 故障排除 (续) 类别 问题/症状 原因 建议的纠正措施 软件安装 当作为非 oracle 在远程节点上没有设置 用户连接到数据库 所需的权限。 时,出现错误信 息:ORA01034: ORACLE not available and Linux Error 13: Permission denied. (ORACLE 不可用 和 Linux 错误 13: 权限被拒绝。) 在所有远程节点上,作为 root 用户,键入: chmod 6751 $ORACLE_HOME 光纤信道 存储 载入光纤信道 HBA 需要更新 HBA 驱动程 驱动程序模块时, 序、BIOS 或固件。 出现 I/O 错误和 警告。 查看“经 Dell|Oracle 测试并验证的配置”网站 www.dell.
表 1-8. 故障排除 (续) 类别 问题/症状 原因 建议的纠正措施 OCFS2 重新引导时,系 安装时未连接专用互连。 请不必理会该错误信息。在部署过程中将处理 统显示一则错误 此安装问题。 信息: mount.ocfs2: Transport endpoint is not connected while mounting /dev/emcpower a1 on /u01/ (mount.ocfs2: 装入 /dev/emcpower a1 on /u01/ 时, 传输端点未连接) 获得帮助 Dell 支持 有关系统使用方面的详情,请参阅随系统组件附带的说明文件。 有关白皮书、Dell 支持的配置和一般信息,请访问 Dell 和 Oracle 网站 www.dell.com/oracle。 要获得硬件和操作系统软件的 Dell 技术支持并下载最新的系统更新,请访问 Dell 支持 Web 站点 support.dell.com。Dell 联系信息包含在系统的《安装与故障排除指南》中。 我们现在还提供 Dell 企业培训与认证服务,请访问 www.dell.
获取和使用开放源代码文件 Dell Deployment CD 中包含的软件是第三方程序与 Dell 程序的集合。使用该软件必须遵循指定的许可 条款。“依据 GNU GPL 条款”指定的所有软件均可复制、分发和/或修改,但是必须遵循 GNU 一般 公共许可第 2 版(1991 年 6 月)的条款和条件。“依据 GNU LGPL 条款”(或“Lesser GPL”)指定 的所有软件均可复制、分发和/或修改,但是必须遵循 GNU Lesser 一般公共许可 2.
索引 A F M ASM 配置数据库存储 , 95 附加配置选项 添加和删除节点 , 102 密码 设置 , 94, 102 ASM 配置 , 82 附加信息 , 113 配置自动重新引导 , 114 确定专用网络接口 , 115 O 安全措施 , 78 安装 CRS, 85 Oracle Database 10g, 86 Oracle Database 10g (单个节点) , 97 Oracle RAC 10g, 85 Red Hat Enterprise Linux, 70 使用 Dell Deployment CD, 70 B 绑定 , 77 部署 Oracle RAC 10g, 75 C CRS 安装 , 85 重新安装 软件 , 112 创建基础数据库 , 90, 99 ASM, 91 OCFS, 90 G 公共网络 配置 , 75-76 故障排除 , 117 光纤信道群集设置 , 72 H Hugemem, 70, 75 获得帮助 , 121 J 集成 NIC, 115 基础数据库 创建 , 90, 99 验证 , 93, 100 监听程序配置 , 89, 99 节点
配置 (续) 数据库存储 (单个节点), 使用 ASM, 95 数据库存储 (单个节点), 使用 ex3, 94 配置 Oracle 10g , 72 验证硬件与软件配置 , 72 配置 Oracle Database 10g (单个节点) , 94, 99 创建基础数据库 , 99 配置 Oracle RAC 10g , 75 创建基础数据库 , 90 软件 要求 , 68, 113 重新安装 , 112 软件和硬件要求 , 68 S 删除节点 , 109 示例 光纤信道群集硬件连接 , 73 说明文件 , 69 配置公共网络 , 76 配置共享存储 ASM, 82 OCFS, 80 T 添加和删除节点 , 102 配置专用和公共网络 , 75 配置专用网络 , 77 X 配置自动重新引导 , 114 许可协议 , 69 Q Y 确定专用网络接口 , 115 验证 存储配置 , 79 基础数据库 , 93, 100 软件配置 , 72 硬件配置 , 72 群集 光纤信道硬件连接,示例 , 73 群集设置 光纤信道 , 72 R Red Hat 更新系统软件包 , 72 Red H
Systèmes Dell™ PowerEdge™ Oracle Database 10g Enterprise Edition - Linux pour technologie Intel® 32 bits (x86) Guide de déploiement Version 2.2 w w w. d e l l . c o m | s u p p o r t . d e l l .
Remarques et avis REMARQUE : une REMARQUE indique des informations importantes qui peuvent vous aider à mieux utiliser votre ordinateur. AVIS : un AVIS vous avertit d'un risque de dommage matériel ou de perte de données et vous indique comment éviter le problème. ____________________ Les informations contenues dans ce document peuvent être modifiées sans préavis. © 2006 Dell Inc. Tous droits réservés. La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc.
Sommaire . . . . . . . . . . . . . . . . . . 129 . . . . . . . . . . . . . . . . 130 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 132 . . . . . . . . . . 132 Service de déploiement d'Oracle RAC 10g Configuration matérielle et logicielle requise Contrats de licence . . . . . Documentation importante . Installation et configuration de Red Hat Enterprise Linux Installation de Red Hat Enterprise Linux à l'aide des CD de déploiement . . . . . . . . .
. . . . 159 . . . . . . . . . . . . . . . . . . . . . . 159 160 160 163 164 165 165 169 . . . . . . . . . . . . . . . . . . . . . . . . 169 Configuration et déploiement d'Oracle Database 10g (nœud unique) Configuration du réseau public . . . . . . . . . . . Configuration du stockage de la base de données . Configuration du stockage partagé à l'aide d'ASM Installation d'Oracle Database 10g . . . . . . . . . Application du correctif 10.1.0.5 . . . . . . . . . . Configuration de l'écouteur . . . . . . .
Ce document contient des informations concernant l'installation, la configuration, la réinstallation et l'utilisation d'Oracle Database 10g Enterprise Edition avec Real Application Clusters (RAC). Il fait partie du support fourni par Dell pour les configurations Oracle. REMARQUE : pour installer les logiciels, utilisez ce document ainsi que le CD Dell™ Deployment.
Configuration matérielle et logicielle requise Avant d'installer Oracle RAC sur votre système, suivez les instructions du document Tested and Validated Configurations for Oracle Database (Déploiement de configurations testées et validées par Dell pour Oracle Database), qui est fourni avec le kit, pour effectuer les opérations suivantes : • Rendez-vous sur le site rhn.redhat.com et téléchargez les images des CD Red Hat. • Munissez-vous du kit CD d'Oracle ou téléchargez Oracle à partir du site www.oracle.
Tableau 1-2.
Contrats de licence REMARQUE : la licence Oracle fournie avec la configuration Dell est valable 30 jours. Si vous ne possédez pas la licence de ce produit, contactez votre représentant commercial Dell. Documentation importante Pour plus d'informations sur certains composants matériels spécifiques, consultez la documentation fournie avec le système. Pour obtenir des informations sur les produits Oracle, consultez le guide How to Get Started (Mise en route) fourni avec le kit CD d'Oracle.
9 Lorsque la fenêtre Network Setup (Configuration du réseau) s'affiche, cliquez sur Next. Vous configurerez les paramètres du réseau ultérieurement, car cette fenêtre ne permet pas de configurer les liens réseau. 10 Lorsque la fenêtre Security Level (Niveau de sécurité) s'affiche, désactivez le pare-feu. Vous pourrez le réactiver une fois le déploiement d'Oracle terminé. 11 Connectez-vous en tant que root.
5 Vérifiez que le processeur, la RAM et la taille des disques correspondent à la configuration minimale requise pour l'installation d'Oracle. Pour ce faire, tapez : ./010-hwCheck.py Si un script indique que l'un des paramètres n'est pas valide, mettez à jour la configuration matérielle du système et exécutez à nouveau le script. 6 Si vous déployez le cluster à l'aide d'OCFS2, procédez comme suit : a Installez les modules RPM d'OCFS2 en tapant : ./340-rpms_ocfs.
Figure 1-1.
Tableau 1-4.
Configuration matérielle et logicielle pour Fibre Channel • • Chaque nœud doit comporter au minimum le matériel suivant : – Un ou deux disques durs (de 36 Go minimum) dans la baie interne – Trois ports de NIC Gigabit – Deux cartes adaptateurs de bus hôte Fibre Channel Les logiciels suivants doivent être installés sur chacun des nœuds : – Red Hat Enterprise Linux (voir le tableau 1-1) – Pilote de la carte adaptateur de bus hôte Fibre Channel – Module OCFS2 pour le noyau et outils de configurati
Configuration des réseaux publics et privés Cette section explique comment configurer les réseaux publics et privés du cluster. REMARQUE : chaque nœud doit être associé à une adresse IP publique et privée unique. Une adresse IP publique supplémentaire doit être utilisée comme adresse IP virtuelle pour les connexions des clients et le basculement en cas de panne. L'adresse IP virtuelle doit appartenir au même sous-réseau que l'IP publique.
3 Éditez le fichier /etc/sysconfig/network. Le cas échéant, remplacez localhost.localdomain par le nom qualifié complet public du nœud. Par exemple, la ligne correspondant au premier nœud donnerait : HOSTNAME=node1.domain.com 4 Tapez : service network restart 5 Vérifiez que les adresses IP sont définies correctement en tapant : ifconfig 6 Pour vérifier que le réseau est configuré correctement, lancez un test ping sur chaque adresse IP publique à partir d'un client du réseau local situé hors du cluster.
4 Dans le répertoire /etc/sysconfig/network-scripts/, créez ou modifiez le fichier de configuration ifcfg-bond0. Voici un exemple de ce fichier, basé sur des paramètres réseau factices : DEVICE=bond0 IPADDR=192.168.0.1 NETMASK=255.255.255.0 NETWORK=192.168.0.0 BROADCAST=192.168.0.255 ONBOOT=yes BOOTPROTO=none USERCTL=no Les entrées NETMASK, NETWORK et BROADCAST sont facultatives. DEVICE=bondn est le nom du lien réseau, n correspondant au numéro de lien. IPADDR correspond à l'adresse IP privée.
8 Connectez-vous à chaque nœud et vérifiez que le réseau privé et ssh fonctionnent correctement en tapant : ssh 9 Sur chaque nœud, modifiez le fichier /etc/hosts en ajoutant les lignes suivantes : 127.0.0.1 localhost.
Vérification de la configuration des systèmes de stockage Lors de la configuration des clusters, créez des partitions sur votre système de stockage Fibre Channel. Pour que vous puissiez créer les partitions, tous les nœuds du cluster doivent pouvoir détecter les périphériques de stockage externes.
Si les périphériques de stockage externes ne s'affichent pas dans le fichier /proc/partitions : 1 Arrêtez le service PowerPath sur tous les nœuds en tapant : service naviagent stop service PowerPath stop 2 Sur tous les nœuds, rechargez le pilote de la carte HBA afin de synchroniser les tables de partition du noyau.
d Pour ajouter des nœuds au cluster, cliquez sur Add (Ajouter). Entrez le nom du nœud (le même que celui de l'hôte), ainsi que son adresse IP privée. Conservez le numéro de port par défaut. Une fois toutes les informations entrées, cliquez sur OK. Recommencez cette étape pour ajouter tous les nœuds au cluster. e Une fois tous les nœuds ajoutés, cliquez sur Apply (Appliquer) puis sur Close (Fermer) dans la fenêtre Node Configuration (Configuration du nœud).
6 Sur l'un des nœuds, formatez les périphériques de stockage externes en indiquant une taille de bloc de 4 K, une taille de cluster de 128 K et un nombre d'emplacements (nœuds) de 4. Pour ce faire, utilisez l'outil mkfs.ocfs2 à partir de la ligne de commande en procédant comme suit : mkfs.ocfs2 -b 4K -C 128K -N 4 -L u01 /dev/emcpowera1 mkfs.ocfs2 -b 4K -C 128K -N 4 -L u02 /dev/emcpowerb1 REMARQUE : pour plus d'informations sur la définition des paramètres de format des clusters, voir http://oss.oracle.
Configuration du stockage partagé à l'aide d'ASM Configuration du stockage partagé pour les services CRS (Cluster Ready Service) Pour configurer le stockage partagé à l'aide d'ASM, procédez comme suit : 1 Sur le premier nœud, créez trois partitions sur l'un des périphériques de stockage externes, à l'aide de fdisk.
Configuration du stockage partagé à l'aide d'ASMLib 1 Pour configurer le cluster avec ASM, effectuez la procédure suivante sur tous les nœuds : a Connectez-vous en tant que root. b Configurez le module du noyau ASM en tapant : /etc/init.d/oracleasm configure Le message suivant s'affiche pour indiquer que vous allez configurer les propriétés de démarrage correspondant au pilote de bibliothèque ASM d'Oracle : Configuring the Oracle ASM library driver.
2 Sur l'un des nœuds, marquez les partitions créées précédemment comme étant des disques ASM. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk “/dev/emcpowerb1” as an ASM disk: [ OK ] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk “/dev/emcpowerc1” as an ASM disk: [ OK ] 3 Explorez les disques ASM sur tous les autres nœuds. # /etc/init.d/oracleasm scandisks Scanning system for ASM disks: [ OK ] 4 Sur tous les nœuds, vérifiez que tous les disques ASM sont visibles.
Installation d'Oracle RAC 10g Cette section indique comment installer Oracle RAC 10g version 10.1.0.3. La procédure requise inclut l'installation des services CRS et du logiciel Oracle Database 10g. Dell conseille de créer une base de données initiale pour vérifier le fonctionnement du cluster avant de le déployer dans un environnement de production. Installation des services CRS 1 Connectez-vous en tant que root sur le premier nœud.
12 Dans la fenêtre Oracle Cluster Registry (Registre de cluster Oracle), entrez le chemin d'accès complet du disque OCR (/dev/raw/ocr.dbf), puis cliquez sur Next. REMARQUE : si vous avez utilisé une partition OCFS2 partagée pour le disque OCR et le disque de vote, entrez le chemin approprié. 13 Dans la fenêtre Voting Disk (Disque de vote), entrez le chemin d'accès complet de la partition contenant le disque de vote (/dev/raw/votingdisk), puis cliquez sur Next.
7 Dans la fenêtre Select Installation Type (Sélection du type d'installation), cliquez sur Enterprise Edition, puis sur Next. L'état des vérifications en cours est indiqué. Une fois celles-ci terminées, il est possible que vous receviez un message vous avertissant d'un conflit de version lié au module openmotif. Cochez l'option Warning (Avertissement) et cliquez sur Next.
Application du correctif 10.1.0.5 1 Téléchargez le correctif 10.1.0.5 (p4505133_10105_LINUX.ZIP) à partir du site Oracle Metalink. 2 Copiez ce fichier dans le dossier /oracle_cds/10.1.0.5 du premier nœud. 3 Décompressez le correctif en tapant : unzip p4505133_10105_LINUX.ZIP 4 Modifiez le propriétaire du répertoire 10.1.0.5 en tapant : chown -R oracle.dba /oracle_cds/10.1.0.5 5 Lancez le programme d'installation uniquement à partir du premier nœud.
Application du correctif 10.1.0.5 à la base de données 1 Connectez-vous en tant qu'utilisateur oracle sur le premier nœud. 2 Avant d'appliquer le correctif, arrêtez les services de notification d'Oracle (ONS) en tapant : onsctl stop 3 Démarrez le programme d'installation d'Oracle en tapant : /oracle_cds/10.1.0.5/Disk1/runInstaller 4 Dans la fenêtre de bienvenue, cliquez sur Next.
6 Sélectionnez Cluster Configuration (Configuration du cluster), puis cliquez sur Next. 7 Dans la fenêtre TOPSNodes, cliquez sur Select All Nodes (Sélectionner tous les nœuds), puis cliquez sur Next. 8 Dans la fenêtre Welcome (Bienvenue), sélectionnez Listener Configuration (Configuration de l'écouteur), puis cliquez sur Next. 9 Dans la fenêtre Listener Configuration, Listener (Configuration de l'écouteur, Écouteur), sélectionnez Add, puis cliquez sur Next.
6 Dans la fenêtre Database Identification (Identification de la base de données), entrez un nom global de base de données dans la zone Global Database Name (bdd_rac, par exemple), puis cliquez sur Next. 7 Dans la fenêtre Management Options (Options de gestion), cliquez sur Next.
18 Cliquez sur Exit. Un message indique que la base de données du cluster est en cours de démarrage sur tous les nœuds. 19 Sur chaque nœud, effectuez les opérations suivantes : a Pour savoir quelles instances de base de données se trouvent sur ce nœud, tapez : srvctl status database -d b Ajoutez la variable d'environnement ORACLE_SID au profil utilisateur oracle, en tapant : echo “export ORACLE_SID=bdd_racx” >> /home/oracle/.bash_profile source /home/oracle/.
11 Lorsqu'un message indique que l'assistant DBCA est prêt à créer et à démarrer l'instance ASM, cliquez sur OK. 12 Sous Available Disk Groups (Groupes de disques disponibles), cliquez sur Create New (Créer). 13 Dans la fenêtre Disk Group (Groupe de disques), entrez les informations sur les fichiers de la base de données, puis cliquez sur OK.
25 Cliquez sur Exit. Un message indique que la base de données du cluster est en cours de démarrage sur tous les nœuds. 26 Effectuez les étapes suivantes sur chaque nœud : a Pour savoir quelle instance de base de données se trouve sur ce nœud, tapez : srvctl status database -d b Ajoutez la variable d'environnement ORACLE_SID au profil utilisateur oracle, en tapant : echo “export ORACLE_SID=bdd_racx” >> /home/oracle/.bash_profile source /home/oracle/.
3 Redémarrez tous les nœuds pour appliquer le paramètre CSS. Pour plus d'informations, rendez-vous sur le site metalink.oracle.com et consultez la note Oracle Metalink 294430.1. Définition du mot de passe de l'utilisateur oracle Dell recommande vivement de protéger le système en définissant un mot de passe pour l'utilisateur oracle. Procédez comme suit pour créer ce mot de passe. 1 Connectez-vous en tant que root.
Configuration du stockage de la base de données Configuration du stockage de la base de données à l'aide du système de fichiers ext3 Si vous disposez de ressources de stockage supplémentaires, procédez comme suit : 1 Connectez-vous en tant que root. 2 Tapez : cd /opt/oracle 3 Tapez : mkdir oradata recovery 4 À l'aide de fdisk, créez une partition dans laquelle vous souhaitez stocker vos fichiers de base de données (par exemple, sdb1 si le périphérique de stockage est sdb).
Configuration du stockage partagé à l'aide d'ASMLib 1 Pour configurer le cluster avec ASM, effectuez la procédure suivante sur tous les nœuds : a Connectez-vous en tant que root. b Configurez le module du noyau ASM en tapant : /etc/init.d/oracleasm configure Le message suivant s'affiche pour indiquer que vous allez configurer les propriétés de démarrage correspondant au pilote de bibliothèque ASM d'Oracle : Configuring the Oracle ASM library driver.
c Marquez les partitions créées précédemment comme étant des disques ASM. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk “/dev/emcpowerb1” as an ASM disk: [ OK ] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk “/dev/emcpowerc1” as an ASM disk: [ OK ] 2 Explorez les disques ASM sur tous les autres nœuds. # /etc/init.d/oracleasm scandisks Scanning system for ASM disks: [ OK ] 3 Sur tous les nœuds, vérifiez que tous les disques ASM sont visibles.
Installation d'Oracle Database 10g Exécutez la procédure suivante pour installer Oracle Database 10g : 1 Connectez-vous en tant que root. 2 Montez le disque Oracle Database 10g CD 1. 3 Démarrez le système X Window en tapant : startx 4 Ouvrez une fenêtre de terminal et tapez : xhost + 5 Connectez-vous en tant qu'utilisateur oracle. 6 Démarrez Oracle Universal Installer en tant qu'utilisateur oracle.
Application du correctif 10.1.0.5 1 Téléchargez le correctif 10.1.0.5 (p4505133_10105_LINUX.ZIP) à partir du site Oracle Metalink. 2 Copiez ce fichier dans le dossier /oracle_cds/10.1.0.5 sur l'un des nœuds. 3 Décompressez le correctif en tapant : unzip p4505133_10105_LINUX.ZIP 4 Modifiez le propriétaire du répertoire 10.1.0.5 en tapant : chown -R oracle.dba /oracle_cds/10.1.0.5 Application du correctif 10.1.0.5 à la base de données 1 Connectez-vous en tant qu'utilisateur oracle.
Configuration de l'écouteur 1 Connectez-vous en tant que root. 2 Démarrez le système X Window en tapant : startx 3 Ouvrez une fenêtre de terminal et tapez : xhost + 4 Connectez-vous en tant qu'utilisateur oracle. 5 Démarrez l'assistant de configuration du réseau en tapant : netca 6 Acceptez les paramètres par défaut et cliquez sur Next dans chaque écran pour terminer la configuration de l'écouteur.
11 Dans la fenêtre Recovery Configuration (Configuration de la récupération), cliquez sur Browse (Parcourir), sélectionnez la zone de récupération flashback créée à la section “Configuration du stockage de la base de données à l'aide du système de fichiers ext3” (/opt/oracle/recovery, par exemple), puis cliquez sur Next. 12 Dans la fenêtre Database Content (Contenu de la base de données), cliquez sur Next. 13 Dans la fenêtre Initialization Parameters (Paramètres d'initialisation), cliquez sur Next.
Création de la base de données initiale à l'aide d'ASM Si vous avez configuré le stockage à l'aide d'ASM, procédez comme suit pour créer une base de données initiale avec l'assistant DBCA : 1 En tant qu'utilisateur oracle, démarrez l'assistant DBCA en tapant : dbca & 2 Dans la fenêtre de bienvenue, cliquez sur Next. 3 Dans la fenêtre Operations (Opérations), cliquez sur Create a Database (Créer une base de données), puis cliquez sur Next.
14 Dans la fenêtre Disk Group (Groupe de disques), entrez les informations sur les fichiers de récupération flashback, puis cliquez sur OK. Entrez un nom pour le groupe de disques à créer (par exemple, GDflashback), sélectionnez une redondance externe, puis choisissez les disques à inclure dans le groupe (par exemple, /dev/raw/ASM2). Une fenêtre indique que la création du groupe de disques est en cours.
Définition du mot de passe de l'utilisateur oracle Dell recommande vivement de protéger le système en définissant un mot de passe pour l'utilisateur oracle. Procédez comme suit pour créer ce mot de passe. 1 Connectez-vous en tant que root. 2 Tapez la commande suivante et suivez les instructions à l'écran : passwd oracle Ajout et suppression de nœuds Cette section indique comment ajouter ou supprimer un nœud dans un cluster. Pour ajouter un nœud à un cluster existant : • Ajoutez le nœud à la couche réseau.
Configuration du stockage partagé sur le nouveau nœud Pour étendre une base de données RAC existante aux nouveaux nœuds, configurez ceux-ci pour que leurs ressources de stockage soient identiques à celles des nœuds existants. Cette section présente les procédures à suivre pour ASM ou OCFS2.
Configuration du stockage partagé à l'aide d'ASMLib Pour configurer le cluster avec ASM, effectuez la procédure suivante sur le nouveau nœud : 1 Connectez-vous en tant que root. 2 Configurez le module du noyau ASM en tapant : /etc/init.d/oracleasm configure Le message suivant s'affiche pour indiquer que vous allez configurer les propriétés de démarrage correspondant au pilote de bibliothèque ASM d'Oracle : Configuring the Oracle ASM library driver.
3 Lancez l'exploration des disques ASM en tapant : /etc/init.d/oracleasm scandisks Scanning system for ASM disks: [ OK ] 4 Vérifiez que tous les disques ASM sont visibles en tapant : /etc/init.d/oracleasm listdisks La liste de tous les disques ASM configurés s'affiche.
5 Pour ajouter le nouveau nœud au fichier de configuration OCFS2 /etc/ocfs2/cluster.conf, effectuez la procédure suivante sur l'un des nœuds existants : a Démarrez le système X Window en tapant : startx b Générez le fichier de configuration OCFS2 (/etc/ocfs2/cluster.conf) avec le nom de cluster par défaut “ocfs2”. Pour ce faire, tapez la commande suivante dans une fenêtre de terminal : ocfs2console c Dans le menu, cliquez sur Cluster → Configure Nodes (Configurer les nœuds).
9 Sur tous les nœuds, montez tous les volumes indiqués dans le fichier /etc/fstab. Pour ce faire, tapez : mount -a -t ocfs2 10 Sur le nouveau nœud, ajoutez la commande suivante au fichier /etc/rc.local : mount -a -t ocfs2 11 Sur tous les nœuds autres que celui qui vient d'être ajouté, démarrez la base de données et les services CRS en procédant comme suit : a En tant qu'utilisateur root, tapez : /etc/init.d/init.
Ajout d'un nouveau nœud à la couche de la base de données 1 Connectez-vous en tant qu'utilisateur oracle sur l'un des nœuds existants. 2 Démarrez Oracle Universal Installer à partir du répertoire /opt/oracle/product/10.1.0/db_1/oui/bin, en tapant : addNode.sh 3 Dans la fenêtre de bienvenue, cliquez sur Next. 4 Dans la fenêtre Specify Cluster Nodes for Node Addition (Indiquez le nœud à ajouter au cluster), cliquez sur le nouveau nœud, puis cliquez sur Next.
Ajout d'un nouveau nœud à la couche de l'instance de base de données 1 Sur l'un des nœuds existants, connectez-vous en tant qu'utilisateur oracle et démarrez l'assistant DBCA en tapant : dbca 2 Dans la fenêtre Welcome (Bienvenue), sélectionnez Oracle Real Application Cluster Database (Base de données Oracle Real Application Cluster), puis cliquez sur Next. 3 Dans la fenêtre Operations, cliquez sur Instance Management (Gestion des instances), puis cliquez sur Next.
Suppression d'un nœud du cluster Suppression d'un nœud de la couche de configuration de l'instance de base de données Connectez-vous en tant qu'utilisateur oracle sur le premier nœud et procédez comme suit : 1 Tapez : dbca 2 Dans la fenêtre de bienvenue, cliquez sur Next. 3 Dans la fenêtre Operations, cliquez sur Instance Management (Gestion des instances), puis cliquez sur Next.
Suppression d'un nœud de la couche de la base de données 1 Sur le nœud à supprimer, connectez-vous en tant qu'utilisateur oracle. 2 Tapez la commande suivante, en utilisant le nom public du nœud à supprimer (node3-pub par exemple) : srvctl stop nodeapps -n node3-pub 3 Sur le nœud à supprimer, connectez-vous en tant qu'utilisateur root. 4 Tapez la commande suivante, en utilisant le nom public du nœud à supprimer (node3-pub par exemple) : /opt/oracle/product/10.1.0/db_1/install/rootdeletenode.
Suppression d'un nœud du cluster OCFS2 1 Sur le nœud à supprimer, procédez comme suit : a Connectez-vous en tant que root. b Démontez les volumes OCFS2 montés en tapant : umount –a –t ocfs2 c Arrêtez le service O2CB en tapant : /etc/init.d/o2cb stop d Désactivez le service O2CB en tapant : /etc/init.d/o2cb disable e Supprimez la ligne OCFS2 du fichier /etc/fstab. f Supprimez le fichier de configuration OCFS2 en tapant : rm –f /etc/ocfs2/cluster.
Réinstallation des logiciels AVIS : la réinstallation des logiciels efface toutes les données des disques durs. AVIS : vous devez déconnecter tous les périphériques de stockage externes du système avant de réinstaller les logiciels. AVIS : Dell recommande d'effectuer des sauvegardes régulières de votre base de données et des nœuds individuels afin de ne pas perdre de données importantes. Réinstallez les logiciels du nœud uniquement en dernier recours.
Tableau 1-6. Versions de logiciels prises en charge Composant logiciel Versions prises en charge Système d'exploitation Red Hat Enterprise Linux AS (version 4) avec mise à jour trimestrielle 3 pour Intel x86 2.6.9-34.EL Correctif Oracle (patchset) 10.1.0.5 OCFS2 ocfs2-2.6.9-34.EL-1.2.2-1; ocfs2-2.6.9-34.ELhugemem1.2.2-1; ocfs2-2.6.9-34.ELsmp-1.2.2-1 PowerPath pour Linux 4.5.1 Pilote de la carte adaptateur de bus hôte Qlogic 2340 8.01.
Configuration de la réinitialisation automatique en cas de blocage du système d'exploitation Installez le logiciel de gestion de système pour Red Hat Enterprise Linux, en procédant comme suit : 1 Connectez-vous en tant qu'administrateur au système sur lequel vous souhaitez installer les composants. 2 Quittez toutes les applications en cours d'exécution et désactivez tout logiciel anti-virus.
Pour configurer l'option de redémarrage automatique, procédez comme suit : 1 Tapez : omconfig system recovery action=reboot Cette commande définit le temporisateur de redémarrage automatique à 480 secondes, ce qui correspond au délai par défaut avant le redémarrage consécutif au blocage du système.
2 Vérifiez qu'un NIC Broadcom NetXtreme Gigabit ou Intel PRO/1000 est connecté via un câble Cat 5e au commutateur Ethernet Gigabit. Il s'agit du NIC privé. 3 Identifiez le pilote utilisé par le NIC privé. La carte Broadcom NetXtreme Gigabit utilise tg3. Les cartes de la gamme Intel PRO/1000 utilisent e1000. 4 Affichez le fichier /etc/modprobe.conf en tapant : more /etc/modprobe.
Dépannage Le tableau 1-8 indique les mesures recommandées en cas d'incident lié au déploiement et à l'utilisation de Red Hat Enterprise Linux et d'Oracle. Tableau 1-8. Catégorie Dépannage Incident/ Symptôme Performances Instabilité du système et stabilité et performances amoindries sous Red Hat Enterprise Linux. Utilisation excessive de l'espace de pagination. Cause Mesure recommandée La zone SGA (Oracle System Global Area) dépasse la taille recommandée.
Tableau 1-8. 186 Dépannage (suite) Catégorie Incident/ Symptôme Cause Mesure recommandée Assistant de configuration du réseau Oracle (NETCA) L'assistant NETCA échoue et provoque des erreurs liées à la création des bases de données. Le réseau public, le nom hôte ou l'adresse IP virtuelle ne sont pas répertoriés dans le fichier /etc/hosts.equiv. Avant d'exécuter netca, assurez-vous qu'un nom d'hôte est attribué au réseau public et que le fichier /etc/hosts.
Tableau 1-8. Dépannage (suite) Catégorie Incident/ Symptôme Cause Mesure recommandée CRS Les services CRS ne démarrent pas lors de l'exécution du script root.sh. Assurez-vous que les noms publics et privés du nœud sont correctement définis et que vous parvenez à leur envoyer des requêtes ping. Une fois les incidents réseau corrigés, essayez de relancer le service en redémarrant le nœud ou en exécutant le script root.sh à partir du répertoire /opt/oracle/product/10.1.0/crs_1/.
Tableau 1-8. Dépannage (suite) Catégorie Incident/ Symptôme Cause CRS Les services CRS ne démarrent pas lors de l'exécution du script root.sh. D'autres tentatives de dépannage des services CRS ont échoué. Mesure recommandée 1 Ajoutez la ligne suivante au script root.sh pour activer le débogage : set -x 2 Essayez de redémarrer le service en exécutant le script root.sh à partir du répertoire suivant : /opt/oracle/product/10.1.
Tableau 1-8. Dépannage (suite) Catégorie Incident/ Symptôme Cause Assistant DBCA Lorsque vous créez Cet incident connu la base de données apparaît de façon initiale sur les volumes intermittente. OCFS à l'aide de l'assistant DBCA, une erreur ORA-60, ORA-06512 ou ORA34740 se produit. Installation des logiciels Vous recevez des Vous utilisez des copies Utilisez les CD Red Hat d'origine inclus avec messages d'erreur et non les CD Red Hat le système. de dd lorsque vous d'origine.
Tableau 1-8. Dépannage (suite) Catégorie Incident/ Symptôme Cause Mesure recommandée Stockage Fibre Channel Vous recevez des erreurs d'E-S et des avertissements lorsque vous chargez le module du pilote de la carte adaptateur de bus hôte Fibre Channel. Le pilote de la carte adaptateur de bus hôte, le BIOS ou le micrologiciel doit être mis à jour. Consultez le document “Solution Deliverable List” (Liste des éléments pris en charge) qui se trouve sur le site www.dell.
Obtention d'aide Support Dell Pour plus de précisions sur l'utilisation du système, reportez-vous à la documentation fournie avec ses composants. Vous trouverez des informations sur les configurations Dell prises en charge, des informations d'ordre général et les livres blancs sur le site www.dell.com/oracle. Pour obtenir une assistance technique sur votre matériel ou le système d'exploitation et télécharger les dernières mises à jour appropriées pour le système, rendez-vous sur le site support.dell.com.
Guide de déploiement
Index A Agrégation de liens réseau, 139 ASM configuration du stockage de la base de données, 160 Autres options de configuration ajout et suppression de nœuds, 169 B Base de données initiale création, 154, 165 vérification, 158, 166 C Cluster Fibre Channel, exemple de connexion matérielle, 135 Configuration, 160 Oracle Database 10g (nœud unique), 159 Oracle RAC 10g, 137 périphériques de stockage, ASM, 146 périphériques de stockage, OCFS, 143 Red Hat Enterprise Linux, 133 Configuration, 160 (suite) Stocka
Index Déploiement d'Oracle RAC 10g, 137 Documentation, 132 E Exemples Fibre Channel, connexions matérielles, 135 F Fibre Channel, configuration du cluster, 134 H Hugemem, 133, 137 L Logiciels Configuration requise, 130, 180 Réinstallation, 180 M Matériel Configuration minimale, clusters Fibre Channel, 131 Interconnexions Fibre Channel, 136 Nœud unique, configuration requise, 131 Mots de passe Définition, 159, 169 Informations supplémentaires, 180 Configuration du redémarrage automatique, 182 Déf
S Sécurité, 141 Shell distant (rsh) Désactivation, 141 Suppression d'un nœud, 177 V Vérification Base de données initiale, 158, 166 Configuration des systèmes de stockage, 142 Configuration logicielle, 134 Configuration matérielle, 134 Index 195
Index 196 Index
Dell™ PowerEdge™-Systeme Oracle Database 10g Enterprise Edition – Linux für Intel® 32-Bit-Technologie (x86) Einrichtungsanleitung Version 2.2 w w w. d e l l . c o m | s u p p o r t . d e l l .
Anmerkungen und Hinweise ANMERKUNG: Eine ANMERKUNG macht auf wichtige Informationen aufmerksam, die die Arbeit mit dem Computer erleichtern. HINWEIS: Ein HINWEIS warnt vor möglichen Beschädigungen der Hardware oder vor Datenverlust und zeigt auf, wie derartige Probleme vermieden werden können. ____________________ Irrtümer und technische Änderungen vorbehalten. © 2006 Dell Inc. Alle Rechte vorbehalten. Die Reproduktion dieses Dokuments in jeglicher Form ohne schriftliche Genehmigung von Dell Inc.
Inhalt . . . . . . . . . . . . . . . . . . . . 201 . . . . . . . . . . . . . . . . . . . 202 . . . . . . . . . . . . . . . . . . . . . . . . . 204 204 Einrichtungsdienst für Oracle RAC 10g Software- und Hardwareanforderungen Lizenzverträge . . . . . Wichtige Dokumentation . . . . . . . . . . . . . . . . . . . . . . . . . Installation und Konfiguration von Red Hat Enterprise Linux . . . . . . . . . Installation von Red Hat Enterprise Linux mit den Deployment-CDs .
. . . 232 . . . . . . . . . . . . . . . . . . . . 232 233 233 236 237 238 238 242 . . . . . . . . . . . . . . . . . . . . 242 Konfigurieren und Einrichten von Oracle Database 10g (Einzelknoten) Konfiguration des öffentlichen Netzwerks . . . . . . Konfiguration des Datenbankspeichers . . . . . . . Konfiguration von gemeinsamem Speicher mit ASM Installation von Oracle Database 10g . . . . . . . . Anwendung des Patchsets 10.1.0.5 . . . . . . . . . . Konfiguration des Listeners. . . . . . . . . . . . . .
Dieses Dokument enthält Informationen über die Installation, Konfiguration, Neuinstallation und das Verwenden der Software Oracle Database 10g Enterprise Edition with Real Application Clusters (RAC) auf einer von Dell|Oracle unterstützten Konfiguration. ANMERKUNG: Verwenden Sie dieses Dokument in Verbindung mit der Dell™ Deployment-CD, um die Software zu installieren.
Software- und Hardwareanforderungen Bevor Sie die Oracle RAC-Software auf dem System installieren, lesen Sie das Dokument Deploying Dell-Tested and Validated Configurations for Oracle Database (Einrichten der von Dell für Oracle Database geprüften und zugelassenen Konfigurationen), das Sie mit dem Kit erhalten haben, und führen Sie entsprechend den dort gegebenen Anweisungen folgende Schritte durch: • Laden Sie die Red-Hat-CDs von der Red-Hat-Website rhn.redhat.com herunter.
Tabelle 1-2.
Lizenzverträge ANMERKUNG: Die Dell-Konfiguration umfasst eine 30-Tage-Testlizenz der Oracle-Software. Wenn Sie für dieses Produkt keine Lizenz besitzen, wenden Sie sich an den Dell Vertragshändler. Wichtige Dokumentation Weitere Informationen zu speziellen Hardware-Komponenten finden Sie in der Dokumentation des Systems. Oracle-Produktinformationen finden Sie im Dokument How to Get Started (Erste Schritte) im Oracle CD-Kit.
9 Wenn das Fenster Network Setup (Netzwerkeinrichtung) erscheint, klicken Sie auf Weiter. Sie müssen die Konfiguration der Netzwerkeinstellungen später vornehmen, da Sie in diesem Fenster keine Möglichkeit haben, die Netzwerkbündelung zu konfigurieren. 10 Wenn das Fenster Security Level (Sicherheitsstufe) erscheint, deaktivieren Sie die Firewall. Sie können die Firewall nach der Einrichtung von Oracle aktivieren. 11 Melden Sie sich als root beim System an.
5 Überprüfen Sie, ob Prozessor, RAM und Datenträgerkapazitäten die Mindestanforderungen für die Oracle-Installation erfüllen, indem Sie eingeben: ./010-hwCheck.py Wenn durch das Skript ein Parameter ermittelt wird, der nicht den Anforderungen entspricht, müssen Sie die Hardwarekonfiguration aktualisieren und das Skript erneut ausführen. 6 Wenn Sie den Cluster mit OCFS2 einrichten, führen Sie die folgenden Schritte aus: a Installieren Sie OCFS2-RPMs (Red Hat Package Managers), indem Sie eingeben: .
Abbildung 1-1.
Tabelle 1-4.
Konfigurationen der Fibre Channel-Hardware und -Software • • Jeder Knoten muss mindestens mit den folgenden Hardwarekomponenten ausgestattet sein: – Eine oder zwei Festplatten (mindestens 36 GB) im internen Festplattenschacht – Drei Gigabit NIC-Ports – Zwei Fibre-Channel-HBAs Auf jedem Knoten muss die folgende Software installiert sein: – Red Hat Enterprise Linux-Software (siehe Tabelle 1-1) – Fibre-Channel-HBA-Treiber – OCFS2-Modul für den Kernel und die Konfigurationstools für OCFS2 ANMERKUN
Konfigurieren des öffentlichen und privaten Netzwerks In diesem Abschnitt werden die erforderlichen Schritte zur Konfiguration der öffentlichen und privaten Clusternetzwerke beschrieben. ANMERKUNG: Jeder Knoten benötigt eine eindeutige öffentliche und private IP-Adresse (Internet Protocol) und eine weitere öffentliche IP-Adresse als virtuelle IP-Adresse für die Clientverbindungen und als FailoverVerbindung. Die virtuelle IP-Adresse muss dem gleichen Subnetz wie die öffentliche IP-Adresse angehören.
3 Öffnen Sie die Datei /etc/sysconfig/network, und ersetzen Sie gegebenenfalls localhost.localdomain durch den vollständigen Namen des öffentlichen Knotens. Die Zeile für den ersten Knoten würde beispielsweise wie folgt lauten: HOSTNAME=node1.domain.
4 Erstellen oder bearbeiten Sie im Verzeichnis /etc/sysconfig/network-scripts/ die Konfigurationsdatei ifcfg-bond0. Die Datei könnte bei Verwendung von Beispielparametern für das Netzwerk folgenden Inhalt haben: DEVICE=bond0 IPADDR=192.168.0.1 NETMASK=255.255.255.0 NETWORK=192.168.0.0 BROADCAST=192.168.0.255 ONBOOT=yes BOOTPROTO=none USERCTL=no Die Einträge für NETMASK, NETWORK und BROADCAST sind optional. DEVICE=bondn ist der für die Bündelung benötigte Name, wobei n für die Bündelungsnummer steht.
8 Verbinden Sie sich mit jedem Knoten und überprüfen Sie die Funktion des privaten Netzwerks und ssh, indem Sie eingeben: ssh 9 Ändern Sie für jeden Knoten die Datei /etc/hosts durch Hinzufügen der unten angegebenen Zeilen. 127.0.0.1 localhost.
Überprüfen der Speicherkonfiguration Erstellen Sie während der Clusterkonfiguration Partitionen auf der Fibre-Channel-Speichersystem. Um diese Partitionen erstellen zu können, müssen alle Clusterknoten die externen Speichergeräte erkennen können.
Wenn die externen Speichergeräte nicht in der Datei /proc/partitions aufgeführt sind: 1 Halten Sie auf allen Knoten den PowerPath-Dienst an, indem Sie eingeben: service naviagent stop service PowerPath stop 2 Laden Sie auf allen Knoten den HBA-Treiber neu, um die Partitionstabellen des Kernels zu synchronisieren.
d Um dem Cluster Knoten hinzuzufügen, klicken Sie auf Add (Hinzufügen). Geben Sie den Knotennamen (gleich dem Hostnamen) und die private IP-Adresse ein. Übernehmen Sie den Standardwert für die Portnummer. Nachdem alle genannten Eingaben gemacht sind, klicken Sie auf OK. Wiederholen Sie diesen Schritt, um dem Cluster alle Knoten hinzuzufügen.
6 Formatieren Sie auf einem beliebigen Knoten die externen Speichergeräte mit 4 K Blockgröße, 128 K Clustergröße und 4 Knotensteckplätzen (entspricht der Zahl der Clusterknoten), indem Sie das Befehlszeilenprogramm mkfs.ocfs2 wie folgt verwenden: mkfs.ocfs2 -b 4K -C 128K -N 4 -L u01 /dev/emcpowera1 mkfs.ocfs2 -b 4K -C 128K -N 4 -L u02 /dev/emcpowerb1 ANMERKUNG: Weitere Informationen über das Einstellen der Formatparameter bei Clustern erhalten Sie unter http://oss.oracle.
Konfiguration von gemeinsamem Speicher mit ASM Konfiguration von gemeinsamem Speicher für Cluster Ready Service (CRS) Um gemeinsamen Speicher mit ASM zu konfigurieren, gehen Sie wie folgt vor: 1 Erstellen Sie auf dem ersten Knoten mit fdisk drei Partitionen auf einem externen Speichergerät: Erstellen Sie jeweils drei Partitionen von 150 MB für das Cluster-Repository, den Voting-Datenträger und die Oracle-Systemparameterdatei, indem Sie eingeben: fdisk /dev/emcpowerx 2 Überprüfen Sie auf jedem Knoten die ne
Konfiguration von gemeinsamem Speicher mit ASMLib 1 Um den Cluster mit ASM zu konfigurieren, führen Sie auf allen Knoten folgende Schritte durch: a Melden Sie sich als root beim System an. b Konfigurieren Sie das ASM-Kernelmodul, indem Sie eingeben: /etc/init.d/oracleasm configure Die folgende Meldung wird angezeigt: Configuring the Oracle ASM library driver. This will configure the on-boot properties of the Oracle ASM library driver.
2 Benennen Sie die zuvor als ASM-Datenträger erstellten Partitionen auf einem beliebigen Knoten. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk “/dev/emcpowerb1” as an ASM disk: [OK] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk “/dev/emcpowerc1” as an ASM disk: [ OK ] 3 Fragen Sie die ASM-Datenträger auf allen anderen Knoten ab. # /etc/init.
Installation von Oracle RAC 10g In diesem Abschnitt werden die erforderlichen Schritte zur Installation von Oracle RAC 10g Version 10.1.0.3 beschrieben. Dies beinhaltet die Installation von CRS und der Oracle Database 10g-Software. Dell empfiehlt, eine Startdatenbank einzurichten, um zu überprüfen, ob der Cluster korrekt funktioniert, bevor Sie ihn in einer Produktionsumgebung einsetzen. Installation von CRS 1 Melden Sie sich als root auf dem ersten Knoten an.
ANMERKUNG: Die öffentlichen und privaten NIC-Zuweisungen, die Sie in diesem Schritt vornehmem, müssen auf allen Knoten identisch und verfügbar sein. 12 Geben Sie im Fenster Oracle Cluster Registry (Oracle Cluster-Registrierung) den vollständigen Pfad für den Speicherort des OCR-Datenträgers ein (/dev/raw/ocr.dbf), und klicken Sie danach auf Next (Weiter). ANMERKUNG: Wenn Sie eine gemeinsame OCFS2-Partition für OCR- und Voting-Datenträger verwendet haben, geben Sie den zugehörigen Pfad ein.
6 Klicken Sie im Fenster Specify Hardware Cluster Installation Mode (Installationsmodus für Hardware-Cluster festlegen) auf Select All (Alle auswählen), und klicken Sie danach auf Weiter. 7 Wählen Sie im Fenster Select Installation Type (Installationstyp auswählen) die Option Enterprise Edition, und klicken Sie dann auf Weiter. Der Status für eine Reihe von Vorüberprüfungen wird angezeigt.
12 Klicken Sie im Fenster Setup Privileges (Setup-Rechte) auf OK. 13 Klicken Sie im Fenster End of Installation (Installation abgeschlossen) auf Exit (Beenden), und bestätigen Sie mit Yes (Ja). Anwendung des Patchsets 10.1.0.5 1 Laden Sie das Patchset 10.1.0.5 (p4505133_10105_LINUX.ZIP) von der Oracle MetaLink-Website herunter. 2 Kopieren Sie das Patchset in den Ordner /oracle_cds/10.1.0.5 auf dem ersten Knoten. 3 Entpacken Sie das Patchset, indem Sie eingeben: unzip p4505133_10105_LINUX.
8 Melden Sie sich auf jedem Knoten als root an und starten Sie das Skript root10105.sh vom CRSStammspeicherort aus. 9 Beenden Sie das Installationsprogramm, nachdem dieses Skript von allen Knoten aus gestartet wurde. 10 Führen Sie auf allen Knoten die folgenden Schritte aus: a Überprüfen Sie die Installation von CRS, indem Sie den folgenden Befehl im Verzeichnis /opt/oracle/product/10.1.0/crs_1/bin ausführen: olsnodes -n -v Eine Liste der Namen aller öffentlichen Knoten im Cluster wird angezeigt.
Konfiguration des Listeners In diesem Abschnitt werden die Schritte zum Konfigurieren des Listeners beschrieben, der erforderlich ist, damit entfernte Clients Verbindung zu einer Datenbank aufnehmen können. Führen Sie auf einem der Knoten folgenden Vorgang durch: 1 Melden Sie sich als root beim System an. 2 Starten Sie das X-Window-System, indem Sie eingeben: startx 3 Öffnen Sie ein Terminalfenster und geben Sie ein: xhost + 4 Führen Sie als Benutzer oracle folgenden Befehl aus: source /home/oracle/.
Erstellen der Startdatenbank In diesem Abschnitt wird die Vorgehensweise zum Erstellen einer Startdatenbank mit OCFS2 oder ASM sowie zum Überprüfen der Startdatenbank beschrieben. Erstellen der Startdatenbank mit OCFS2 1 Geben Sie auf dem ersten Knoten als Benutzer oracle den Befehl dbca datafileDestination /u01 ein, um den Datenbankkonfigurationsassistenten (DBCA) zu starten.
15 Klicken Sie im Fenster Database Storage (Datenbankspeicher) auf Weiter. 16 Klicken Sie im Fenster Creation Options (Erstellungsoptionen) auf Create Database (Datenbank erstellen) und anschließend auf Finish (Fertigstellen). 17 Klicken Sie im Fenster Summary (Übersicht) auf OK, um die Datenbank zu erstellen. ANMERKUNG: Die Erstellung der Startdatenbank kann mehr als eine Stunde dauern.
Erstellen der Startdatenbank mit ASM Führen Sie die folgende Schritte aus, um mit Oracle ASM eine Startdatenbank zu erstellen: 1 Starten Sie DBCA auf dem ersten Knoten, indem Sie als Benutzer oracle folgenden Befehl eingeben: dbca & 2 Wählen Sie im Begrüßungsfenster die Option Oracle Real Application Cluster Database (Oracle Real Application Cluster-Datenbank), und klicken Sie auf Weiter. 3 Klicken Sie im Fenster Operations (Vorgänge) auf Create a Database (Datenbank erstellen) und anschließend auf Weiter.
15 Geben Sie im Fenster Disk Group (Datenträgergruppe) die Informationen für die Flashback-Wiederherstellungsdateien ein, und klicken Sie auf OK. Geben Sie einen Namen für die neue Datenträgergruppe ein, z. B. flashbackDG, wählen Sie External Redundancy (Externe Redundanz) aus, und wählen Sie die Datenträger aus, die in der Gruppe zusammengefasst werden sollen (z. B. /dev/raw/ASM2). Eine Meldung zeigt an, dass die Datenträgergruppe nun erstellt wird.
26 Führen Sie auf jedem Knoten die folgenden Schritte aus: a Stellen Sie fest, welche Datenbankinstand auf diesem Knoten vorhanden ist, indem Sie eingeben: srvctl status database -d b Fügen Sie dem oracle-Benutzerprofil mit folgendem Befehl die Umgebungsvariable ORACLE_SID hinzu, indem Sie eingeben: echo “export ORACLE_SID=racdbx” >> /home/oracle/.bash_profile source /home/oracle/.bash_profile wobei racdbx dem Bezeichner der Datenbankinstanz auf dem Knoten entspricht.
Einrichten des Kennworts für den Benutzer oracle Dell empfiehlt nachdrücklich, ein Kennwort für den Benutzer oracle einzurichten, um das System zu schützen. Gehen Sie wie folgt vor, um das Kennwort für den Benutzer oracle zu erstellen: 1 Melden Sie sich als root beim System an.
Konfiguration des Datenbankspeichers Konfiguration des Datenbankspeichers mit ext3-Dateisystem Wenn Sie über zusätzlichen Speicher verfügen, führen Sie folgende Schritte aus: 1 Melden Sie sich als root beim System an. 2 Geben Sie ein: cd /opt/oracle 3 Geben Sie ein: mkdir oradata recovery 4 Erstellen Sie mit dem Dienstprogramm fdisk eine Partition, auf der Sie die Datenbankdateien speichern möchten (z. B. sdb1, wenn das Speichergerät sdb ist).
Konfiguration von gemeinsamem Speicher mit ASMLib 1 Um den Cluster mit ASM zu konfigurieren, führen Sie auf allen Knoten folgende Schritte durch: a Melden Sie sich als root beim System an. b Konfigurieren Sie das ASM-Kernelmodul, indem Sie eingeben: /etc/init.d/oracleasm configure Die folgende Meldung wird angezeigt: Configuring the Oracle ASM library driver. This will configure the on-boot properties of the Oracle ASM library driver.
c Benennen Sie die zuvor als ASM-Datenträger erstellten Partitionen. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk “/dev/emcpowerb1” as an ASM disk: [ OK ] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk “/dev/emcpowerc1” as an ASM disk: [ OK ] 2 Fragen Sie die ASM-Datenträger auf allen anderen Knoten ab. # /etc/init.
Installation von Oracle Database 10g Gehen Sie wie folgt vor, um Oracle Database 10g zu installieren: 1 Melden Sie sich als root beim System an. 2 Mounten Sie die CD Oracle Database 10g CD 1. 3 Starten Sie das X-Window-System, indem Sie eingeben: startx 4 Öffnen Sie ein Terminalfenster und geben Sie ein: xhost + 5 Melden Sie sich als Benutzer oracle an. 6 Starten Sie den Oracle Universal Installer als Benutzer oracle.
Anwendung des Patchsets 10.1.0.5 1 Laden Sie das Patchset 10.1.0.5 von Oracle MetaLink herunter (p4505133_10105_LINUX.ZIP). 2 Kopieren Sie das Patchset in den Ordner /oracle_cds/10.1.0.5 auf einem der Knoten. 3 Entpacken Sie das Patchset, indem Sie eingeben: unzip p4505133_10105_LINUX.ZIP 4 Ändern Sie das Besitzrecht am Verzeichnis 10.1.0.5, indem Sie eingeben: chown -R oracle.dba /oracle_cds/10.1.0.5 Patchen der Datenbank mit dem Patchset 10.1.0.5 1 Melden Sie sich als oracle an.
Konfiguration des Listeners 1 Melden Sie sich als root beim System an. 2 Starten Sie das X-Window-System, indem Sie eingeben: startx 3 Öffnen Sie ein Terminalfenster und geben Sie ein: xhost + 4 Melden Sie sich als Benutzer oracle an. 5 Starten Sie den Oracle-Netzwerkkonfigurationsassistenten, indem Sie eingeben: netca 6 Behalten Sie in allen Fenstern die Standardeinstellungen bei, und klicken Sie jeweils auf Weiter, um die Konfiguration des Listeners abzuschließen.
11 Klicken Sie im Fenster Recovery Configuration (Wiederherstellungskonfiguration) auf Browse (Durchsuchen), wählen Sie den Wiederherstellungsbereich aus, den Sie unter „Konfiguration des Datenbankspeichers mit ext3-Dateisystem“ erstellt haben (z. B. /opt/oracle/recovery), und klicken Sie dann auf Next (Weiter). 12 Klicken Sie im Fenster Database Content (Datenbankinhalt) auf Weiter. 13 Klicken Sie im Fenster Initialization Parameters (Initialisierungsparameter) auf Weiter.
Erstellen der Startdatenbank mit ASM Wenn Sie den Speicher mit ASM konfiguriert haben, gehen Sie zum Erstellen einer Startdatenbank mit dem Oracle DBCA wie folgt vor: 1 Starten Sie den DBCA, indem Sie als Benutzer oracle folgenden Befehl eingeben: dbca & 2 Klicken Sie im Begrüßungsfenster auf Weiter. 3 Klicken Sie im Fenster Operations (Vorgänge) auf Create a Database (Datenbank erstellen) und anschließend auf Weiter.
Geben Sie einen Namen für die neue Datenträgergruppe ein, z. B. flashbackDG, wählen Sie External Redundancy (Externe Redundanz), und wählen Sie die Datenträger aus, die in der Gruppe zusammengefasst werden sollen (z. B. /dev/raw/ASM2). Eine Meldung zeigt an, dass die Datenträgergruppe nun erstellt wird. 15 Wählen Sie im Fenster ASM Disk Groups (ASM-Datenträgergruppen) die Datenträgergruppe aus (z. B. databaseDG), die Sie als Datenbankspeicher verwenden wollen, und klicken Sie auf Weiter.
Einrichten des Kennworts für den Benutzer oracle Dell empfiehlt nachdrücklich, ein Kennwort für den Benutzer oracle einzurichten, um das System zu schützen. Gehen Sie wie folgt vor, um das Kennwort für den Benutzer oracle zu erstellen: 1 Melden Sie sich als root beim System an.
Konfiguration von gemeinsamem Speicher auf dem neuen Knoten Legen Sie für die Knoten, die Sie zur bereits vorhandenen RAC-Datenbank hinzufügen wollen, den gleichen Speicherort fest wie für die bereits vorhandenen Knoten. In diesem Abschnitt wird die korrekte Vorgehensweise sowohl für ASM als auch OCFS2 erläutert.
Konfiguration von gemeinsamem Speicher mit ASMLib Um den Cluster mit ASM zu konfigurieren, führen Sie auf dem neuen Knoten folgende Schritte durch: 1 Melden Sie sich als root beim System an. 2 Konfigurieren Sie das ASM-Kernelmodul, indem Sie eingeben: /etc/init.d/oracleasm configure Die folgende Meldung wird angezeigt: Configuring the Oracle ASM library driver. This will configure the on-boot properties of the Oracle ASM library driver.
4 Überprüfen Sie, ob alle ASM-Datenträger angezeigt werden, indem Sie eingeben: /etc/init.d/oracleasm listdisks Eine Liste mit allen konfigurierten ASM-Datenträgern wird angezeigt.
5 Um den neuen Knoten der OCFS2-Konfigurationsdatei /etc/ocfs2/cluster.conf hinzuzufügen, führen Sie die folgenden Schritte auf einem der bestehenden Knoten durch: a Starten Sie das X-Window-System, indem Sie eingeben: startx b Erzeugen Sie die OCFS2-Konfigurationsdatei (/etc/ocfs2/cluster.conf) mit dem StandardClusternamen ocfs2, indem Sie in einem Terminalfenster eingeben: ocfs2console c Klicken Sie im Menü auf Cluster→ Configure Nodes (Knoten konfigurieren).
9 Mounten Sie auf allen Knoten sämtliche Volumes, die in der Datei /etc/fstab aufgeführt sind, indem Sie eingeben: mount -a -t ocfs2 10 Fügen Sie auf dem neuen Knoten der Datei /etc/rc.local den folgenden Befehl hinzu: mount -a -t ocfs2 11 Starten Sie auf allen Knoten außer dem neu hinzugefügten CRS und die Datenbank, indem Sie die folgenden Schritte ausführen: a Geben Sie als Benutzer root folgenden Befehl ein: /etc/init.d/init.
Hinzufügen eines neuen Knotens zur Datenbankschicht 1 Melden Sie sich als oracle auf einem der bestehenden Knoten an. 2 Starten Sie den Oracle Universal Installer vom Verzeichnis /opt/oracle/product/10.1.0/db_1/oui/bin aus, indem Sie eingeben: addNode.sh 3 Klicken Sie im Begrüßungsfenster auf Weiter. 4 Wählen Sie im Fenster Specify Cluster Nodes for Node Addition (Hinzuzufügende Clusterknoten auswählen) den neuen Knoten aus, und klicken Sie danach auf Weiter.
Hinzufügen eines neuen Knotens zur Datenbankinstanzschicht 1 Starten Sie auf einem der bestehenden Knoten den DBCA als Benutzer oracle. dbca 2 Wählen Sie im Begrüßungsfenster die Option Oracle Real Application Cluster Database (Oracle Real Application Cluster-Datenbank), und klicken Sie auf Weiter. 3 Klicken Sie im Fenster Operations (Vorgänge) auf Instance Management (Datenbankinstanzen verwalten) und anschließend auf Weiter.
Entfernen eines Knotens aus dem Cluster Entfernen eines Knotens aus der Datenbankinstanzschicht Melden Sie sich als oracle auf dem ersten Knoten an und führen Sie folgenden Vorgang durch: 1 Geben Sie ein: dbca 2 Klicken Sie im Begrüßungsfenster auf Weiter. 3 Klicken Sie im Fenster Operations (Vorgänge) auf Instance Management (Datenbankinstanzen verwalten) und anschließend auf Weiter.
Entfernen eines Knotens aus der Datenbankschicht 1 Melden Sie sich am zu löschenden Knoten als Benutzer oracle an. 2 Geben Sie den folgenden Befehl ein, und verwenden Sie dabei den öffentlichen Namen des zu löschenden Knotens (zum Beispiel node3-pub): srvctl stop nodeapps -n node3-pub 3 Melden Sie sich beim zu löschenden Knoten als Benutzer root an.
Entfernen eines Knotens aus dem OCFS2-Cluster 1 Führen Sie auf dem zu löschenden Knoten die folgenden Schritte durch: a Melden Sie sich als root an. b Unmounten Sie die gemounteten OCFS2-Volumes, indem Sie eingeben: umount –a –t ocfs2 c Halten Sie den O2CB-Dienst an, indem Sie eingeben: /etc/init.d/o2cb stop d Deaktivieren Sie den O2CB-Dienst, indem Sie eingeben: /etc/init.d/o2cb disable e Entfernen Sie den OCFS2-Eintrag aus der Datei /etc/fstab.
Neuinstallation der Software HINWEIS: Bei der Neuinstallation der Software werden sämtliche Daten von den Festplatten gelöscht. HINWEIS: Sie müssen sämtliche externen Speichergeräte vom System trennen, bevor Sie die Software neu installieren. HINWEIS: Dell empfiehlt, regelmäßige Sicherungen der Datenbank und der einzelnen Knoten durchzuführen, damit Sie keine wertvollen Daten verlieren. Installieren Sie die Knotensoftware nur dann neu, wenn keine andere Möglichkeit besteht.
Tabelle 1-6. 254 Unterstützte Softwareversionen Softwarekomponente Unterstützte Versionen Betriebssystem Red Hat Enterprise Linux AS (Version 4), vierteljährliches Update 3 für Intel x86-Betriebssystem 2.6.9-34.EL Oracle Patchset 10.1.0.5 OCFS2 ocfs2-2.6.9-34.EL-1.2.2-1; ocfs2-2.6.9-34.ELhugemem1.2.2-1; ocfs2-2.6.9-34.ELsmp-1.2.2-1 PowerPath für Linux 4.5.1 Qlogic HBA 2340-Treiber 8.01.02-d4 Qlogic HBA 2342-Treiber 8.01.02-d4 Qlogic HBA 2360-Treiber 8.01.02-d4 Qlogic HBA QLE2362 8.01.
Konfiguration des automatischen Neustarts bei einem Absturz des Betriebssystems Installieren Sie Managed-System-Software für Red Hat Enterprise Linux, indem Sie folgende Schritte ausführen: 1 Melden Sie sich mit Administratorrechten bei dem System an, auf dem Sie die Systemverwaltungskomponenten installieren möchten. 2 Beenden Sie alle laufenden Anwendungsprogramme, und deaktivieren Sie alle VirenscannerAnwendungen.
Führen Sie folgende Schritte aus, um den automatischen Neustart zu konfigurieren: 1 Geben Sie ein: omconfig system recovery action=reboot Dieser Befehl stellt den Zeitgeber für automatischen Neustart auf den Standardwert von 480 Sekunden ein. Dabei handelt es sich um die Zeitspanne, nach deren Ablauf ein nicht mehr reagierendes System neu gestartet wird.
2 Überprüfen Sie, ob ein Broadcom NetXtreme Gigabit-NIC oder ein NIC der Intel PRO/1000-Serie über ein Cat 5e-Kabel an den Gigabit-Ethernet-Switch angeschlossen ist. Dies ist der private NIC. 3 Finden Sie heraus, welches Treibermodul der private NIC verwendet. Bei Broadcom NetXtreme Gigabit wird tg3 verwendet, bei Geräten der Intel PRO/1000-Serie e1000. 4 Zeigen Sie die Datei /etc/modprobe.conf an, indem Sie eingeben: more /etc/modprobe.
Fehlerbehebung In Tabelle 1-8 sind empfohlene Maßnahmen für Probleme aufgeführt, die beim Einrichten und beim Einsatz von Red Hat Enterprise Linux und Oracle-Software auftreten können. Tabelle 1-8. Fehlerbehebung Kategorie Problem/Anzeichen Ursache Empfohlene Maßnahmen Leistung und Stabilität Unzureichende Leistung und instabiler Betrieb von Red Hat Enterprise Linux. Übermäßige Beanspruchung des SwapSpeichers. Das SGA (Oracle System Global Area) übersteigt die empfohlene Größe.
Tabelle 1-8. Fehlerbehebung (Fortsetzung) Kategorie Problem/Anzeichen Ursache Empfohlene Maßnahmen Netzkonfigurationsassistent (NETCA) Fehler bei NETCA verursachen Probleme beim Erstellen von Datenbanken. Die öffentliche Netzwerkschnittstelle, Hostname oder virtuelle IP werden nicht in der Datei /etc/hosts.equiv aufgeführt.
Tabelle 1-8. Fehlerbehebung (Fortsetzung) Kategorie Problem/Anzeichen Ursache CRS CRS startet beim Stellen Sie sicher, Ausführen von root.sh dass die öffentnicht. lichen und private Knotennamen zugewiesen sind und die Knotennamen mit PingBefehlen erreicht werden können. Versuchen Sie den Dienst neu zu starten, indem Sie den Knoten neu starten oder den Befehl root.sh im Verzeichnis /opt/oracle/product/10.1.0/crs_1/ ausführen, nachdem Sie die Netzwerkprobleme behoben haben.
Tabelle 1-8. Fehlerbehebung (Fortsetzung) Kategorie Problem/Anzeichen CRS CRS startet beim Andere Schritte Ausführen von root.sh zur Fehlerbehebung nicht. bei CRS wurden ohne Erfolg durchgeführt. 1 Aktivieren Sie den Debug-Modus, indem Sie Knoten startet ununterbrochen neu. 1 Starten Sie Linux im Einzelbenutzermodus. CRS DBCA Ursache Der Knoten hat keinen Zugriff auf den QuorumDatenträger im gemeinsamen Speichersystem.
Tabelle 1-8. 262 Fehlerbehebung (Fortsetzung) Kategorie Problem/Anzeichen Ursache Empfohlene Maßnahmen DBCA Während der Erstellung der Startdatenbank mit dem DBCA auf OCFS-Dateisystemen wird die Fehlermeldung ORA-60, ORA-06512 oder ORA-34740 angezeigt. Bekanntes, gelegentlich auftretendes Problem. Klicken Sie auf Ignore (Ignorieren). Die Startdatenbank wird normal erstellt. Softwareinstallation dd-Fehlermeldungen beim Installieren der Software mit der Dell Deployment-CD 1.
Tabelle 1-8. Fehlerbehebung (Fortsetzung) Kategorie Problem/Anzeichen Ursache Empfohlene Maßnahmen OCFS2 Beim Neustart erhalten Sie eine Fehlermeldung: Die private Verbindung ist zum Zeitpunkt des Mountens nicht aktiv. Sie können diese Fehlermeldung übergehen. Das Mount-Problem wird im Einrichtungsvorgang behandelt. mount.
Erwerb und Einsatz von Open-Source-Dateien Die auf der Dell Einrichtungs-CD enthaltene Software umfasst sowohl Programme von Drittanbietern als auch von Dell. Die Verwendung der Software unterliegt den jeweils angegebenen Lizenzbestimmungen. Alle mit „under the terms of the GNU GPL“ (gemäß den Bedingungen der GNU GPL) gekennzeichneten Softwarekomponenten dürfen gemäß den Bedingungen der GNU General Public License in der Version 2 vom Juni 1991 kopiert, verteilt und/oder modifiziert werden.
Index A F I ASM Konfiguration des Datenbankspeichers, 233 Fehlerbehebung, 258 Installation CRS, 221 Mit Dell DeploymentCD, 204 Oracle Database 10g, 222 Oracle Database 10g (Einzelknoten), 236 Oracle RAC 10g, 221 Red Hat Enterprise Linux, 204 Fibre-Channel-Cluster einrichten, 206 Automatischen Neustart konfigurieren, 255 G B Beispiele Fibre-Channel-Cluster, Hardwareverbindungen, 207 Bonding (Bündelung), 211 C Cluster Fibre-ChannelHardwareverbindungen, Beispiel, 207 Cluster einrichten Fibre-Channel,
Index Konfiguration (Fortsetzung) gemeinsamer Speicher mit OCFS, 215 OCFS, 215 Oracle Database 10g (Einzelknoten), 232 Oracle RAC 10g, 209 Red Hat Enterprise Linux, 205 O R OCFS Gemeinsamen Speicher konfigurieren, 245 Red Hat Systempakete aktualisieren, 206 OCFS-Konfiguration, 215 Red Hat Enterprise Linux Installation, 204 Konfiguration der öffentlichen und privaten Netzwerke, 210 Oracle Database 10g Einzelknotenkonfiguration, 232 Installation, 222 Installation (Einzelknoten), 236 Konfigurati
W Wie Sie Hilfe bekommen, 263 Z Zusätzliche Informationen, 253 Automatischen Neustart konfigurieren, 255 Private Netzwerkschnittstelle identifizieren, 256 Zusätzliche Konfigurationsoptionen Hinzufügen und Entfernen von Knoten, 242 Index 267
Index 268 Index
Dell™ PowerEdge™ システム Oracle Database 10g Enterprise Edition — Linux for Intel® 32-Bit Technology (x86) 導入ガイドバージョン 2.2 w w w. d e l l . c o m | s u p p o r t . d e l l .
メモおよび注意 メモ:コンピュータを使いやすくするための重要な情報を説明しています。 注意:ハードウェアの損傷やデータの損失の可能性を示し、その危険を回避するための方法を説明し ています。 ____________________ 本書の内容は予告なく変更されることがあります。 © 2006 すべての著作権は Dell Inc. にあります。 Dell Inc. の書面による許可のない複製は、いかなる形態においても厳重に禁じられています。 本書に使用されている商標:Dell、DELL ロゴ、OpenManage、および PowerEdge は、Dell Inc. の商標です。EMC、 PowerPath、および Navisphere は、EMC Corporation の登録商標です。Intel、および Xeon は、Intel Corporation の登録商標です。Red Hat は Red Hat, Inc. の登録商標です。 本書では、必要に応じて上記記載以外の商標や会社名が使用されている場合がありますが、それらの商標や会社名は、 一切 Dell Inc.
目次 Oracle RAC 10g Deployment Service . . . . . . . . . . . . . . . . . . . . . ソフトウェアおよびハードウェアの要件 . ライセンス契約 . . 重要なマニュアル. 273 . . . . . . . . . . . . . . . . 274 . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 276 . . . . . . . . . . . . . . . . . . . . . . . . . . . Red Hat Enterprise Linux のインストールと設定 . . . . . . . . . . . . . . Deployment CD を使用した Red Hat Enterprise Linux のインストール . . . . . . . . . . . . . . . . . . . . hugemem カーネルの設定 . . . . . . . . . . . . . .
Oracle Database 10g の設定および導入(シングルノード). . . . . . . 305 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 305 306 309 310 311 311 315 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 パブリックネットワークの設定 . . . . データベースストレージの設定 . . . . ASM を使用した共有ストレージの設定 Oracle Database 10g のインストール . . 10.1.0.5 パッチセットの適用 . . . . . . . リスナーの設定 . . . . . . . . . . . . . . シードデータベースの作成 . . . . . . . oracle ユーザーのパスワードの設定 . . ノードの追加と削除 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
本書では、デルと Oracle がサポートされた構成で Oracle Database 10g Enterprise Edition with Real Application Clusters(RAC)ソフトウェアをインストール、設定、再インストール、および使 用するのに必要な情報について説明します。 メモ:本書と『Dell™ Deployment CD』を併用して、使用するソフトウェアをインストールしてください。 OS の CD のみを使用して OS をインストールする場合、本書の説明は該当しないことがあります。 内容は次のとおりです。 • ソフトウェアおよびハードウェアの要件 • Red Hat® Enterprise Linux のインストールと設定 • クラスタハードウェアおよびソフトウェアの設定の確認 • Oracle RAC 10g 用のネットワークおよびストレージの設定 • Oracle RAC 10g のデータベースとパッチセットを複数のノードに導入し、初期データベース を作成する方法 • Oracle Database 10g の設定および導入(シングルノード) •
ソフトウェアおよびハードウェアの要件 お使いのシステムに Oracle RAC ソフトウェアをインストールする前に、キットに同梱の 『Oracle Database 用のデルで検証済みの設定の導入』に書かれている説明に従って次の 手順を実行します。 • Red Hat のウェブサイト rhn.redhat.com から『Red Hat CD』をダウンロードします。 • Oracle CD キットを用意するか、Oracle のウェブサイト www.oracle.com から Oracle ソフトウェアをダウンロードします。 • Dell | Oracle Tested and Validated Configurations(デルと Oracle で検証済みの構成) ウェブサイト www.dell.
表 1-2 ハードウェアの最小要件 ― ファイバーチャネルクラスタ ハードウェアコンポーネント Dell PowerEdge™ 1750、 1850、2600、 2650、2800、2850、4600、6600、6650、 6800、および 6850 の各システム (Oracle Cluster File System(OCFS2) または Automatic Storage Management(ASM) を使用した 2~8 ノード) 仕様 3 GHz Intel Xeon® プロセッサ 1 GB RAM 内蔵ハードドライブ用の PERC (PowerEdge Expandable RAID Controller) PERC に接続された 36 GB のハードドライブ(RAID 1)×2 3 GB のネットワークインタフェースコントローラ (NIC)ポート 光学式ホストバスアダプタ(HBA)ポート×2 Dell | EMC CX200、CX300、CX400、 CX500、または CX700 の各ファイバ ーチャネルストレージシステム サポートされる構成の詳細については、 Dell | Oracl
ライセンス契約 メモ:お使いの Dell システムには、Oracle ソフトウェアの 30 日間の試用ライセンスが含まれて います。この製品のライセンスをお持ちでない場合は、デル販売代理店にお問い合わせください。 重要なマニュアル 特定のハードウェアコンポーネントの詳細については、お使いシステムに付属しているマニュアルを 参照してください。 Oracle の製品情報については、Oracle CD キットの『How To Get Started』ガイドを参照し てください。 Red Hat Enterprise Linux のインストールと設定 注意:OS を正常にインストールするには、インストールを開始する前に外付けストレージデバイス をすべてシステムから取り外してください。 本項では Red Hat Enterprise Linux AS のインストールと、Oracle の導入に必要な OS の設定につい て説明します。 Deployment CD を使用した Red Hat Enterprise Linux のインストール 1 すべての外付けストレージデバイスをシステムから取り外します。 2 『
9 Network Setup(ネットワーク設定)ウィンドウが表示されたら、Next(次へ)をクリッ クします。このウィンドウではネットワーク接続の設定ができないので、ネットワークの 設定は後で行います。 10 Security Level(セキュリティレベル)ウィンドウが表示されたら、ファイアウォールを無 効にします。ファイアウォールは Oracle の導入完了後に有効にすることができます。 11 root としてログインします。 hugemem カーネルの設定 バッファキャッシュのサイズをデフォルト値の 1.
2 次のように入力して、『Dell Deployment CD』からインストールされたスクリプトが含まれる ディレクトリに移動します。 cd /dell-oracle-deployment/scripts/standard メモ:スクリプトによって、インストールされたコンポーネントのバージョン確認のため検索が 行われて、必要に応じてサポートされているバージョンレベルへのアップデートが行われます。 3 次のように入力し、Red Hat Enterprise Linux for Oracle のインストールを設定します。 ./005-oraclesetup.py 4 次のように入力して、環境変数を開始します。 source /root/.bash_profile 5 次のように入力して、プロセッサ、RAM、およびディスクのサイズが Oracle インストールに 適した最低要件を満たしていることを確認します。 ./010-hwCheck.
クラスタのハードウェアおよびソフトウェアの構成の確認 クラスタのセットアップを始める前に、ハードウェアの取り付け、通信の相互接続、およびクラス タ全体に対するノードソフトウェア構成を確認します。以下の項では、ハードウェアとソフトウェ アのファイバーチャネルクラスタ構成の設定について説明します。 ファイバーチャネルクラスタのセットアップ お使いのファイバーチャネルクラスタはデルの公認技術者によってセットアップが完了しています。 本項での説明に従ってハードウェアの接続、ハードウェアおよびソフトウェアの構成を確認して ください。図 1-1 にはクラスタに必要とされる接続の概要図を示します。また、表 1-4 にはクラ スタ接続の概要を示します。 図 1-1 ファイバーチャネルクラスタ用のハードウェアの接続 パブリックネットワーク Gb イーサネット(プライベートネットワーク) LAN/WAN PowerEdge システ ム(Oracle データ ベース) HBA 0 HBA 1 スイッチ 1 スイッチ 0 Dell | EMC ファイバーチャネルスイッチ(SAN) 0 1 0 1 SP-A SP
表 1-4 ファイバーチャネルハードウェアの相互接続 クラスタのコンポーネント 接続 各 PowerEdge システムノード エンハンストカテゴリ 5 (Cat 5e)ケーブル 1 本をパブリック NIC からロー カルエリアネットワーク(LAN)に接続 Cat 5e ケーブル 1 本をプライベートギガビット NIC からギガビットイー サネットスイッチに接続 Cat 5e ケーブル 1 本を冗長プライベートギガビット NIC から冗長ギガビ ットイーサネットスイッチに接続 光ファイバーケーブル 1 本を HBA 0 からファイバーチャネルスイッチ 0 に接続 光ファイバーケーブル 1 本を HBA 1 からスイッチ 1 に接続 各 Dell | EMC ファイバ ーチャネルストレー ジシステム Cat 5e ケーブル 2 本を LAN に接続 各 Dell | EMC ファイバ ーチャネルスイッチ 1 から 4 のオプティカルコネクタを Dell | EMC ファーバーチャネルストレー ジシステムに接続 1 から 4 のオプティカルコネクタを各ファイバーチャネルスイッチに接続。 たとえば
ファイバーチャネルのハードウェアとソフトウェアの構成 • • 各ノードには、少なくとも次のハードウェア周辺機器が含まれている必要があります。 – 内蔵ドライブベイ内のハードドライブ X 1 台または 2 台(最小 36 GB) – ギガビット NIC ポート X 3 – ファイバーチャネル HBA × 2 各ノードには、次のソフトウェアをインストールする必要があります。 – Red Hat Enterprise Linux ソフトウェア(表 1-1 を参照) – ファイバーチャネル HBA ドライバ – カーネル用の OCFS2 モジュール、および OCFS2 用の設定ツール メモ:OCFS は hugemem および対称型マルチプロセッサ(SMP)という 2 種類のカ ーネルをサポートしています。お使いのカーネルに従って OCFS の種類を選択してください。 • ファイバーチャネルストレージは、次のように設定する必要があります。 – クラスタに対して少なくとも 3 つの LUN を作成して割り当てる – LUN のサイズは最小 5 GB Oracle RAC 10g
パブリックおよびプライベートネットワークの設定 本項ではパブリックおよびプライベートのクラスタネットワークの設定手順について説明します。 メモ:クライアント接続および接続のフェイルオーバーのために、固有のパブリックおよび プライベート IP アドレスを 1 つと、仮想 IP アドレスとしての機能を果たす追加のパブリック IP ア ドレスを 1 つ、各ノードに設定する必要があります。仮想 IP アドレスはパブリック IP と同じサブ ネットに属していなければなりません。仮想 IP アドレスを含むすべてのパブリック IP アドレスは DNS に登録する必要があります。 利用可能な NIC ポートの数に応じて、表 1-5 に示すとおりにインタフェースを設定します。 表 1-5 NIC のポート割り当て NIC ポート 利用可能なポート 3 つ 利用可能なポート 4 つ 1 パブリック IP および仮想 IP パブリック IP 2 プライベート IP(ボンディン プライベート IP(ボンディング グ済み) 済み) 3 プライベート IP(ボンディン プライベート IP(ボンディング グ済み) 済み)
3 /etc/sysconfig/network ファイルを編集し、必要に応じて、localhost.localdomain を完全修飾パブリックノード名に変えます。 たとえば、最初のノードの行は次のようになります。 HOSTNAME=node1.domain.
4 /etc/sysconfig/network-scripts/ ディレクトリで、ifcfg-bond0 設定ファイルを作成または 編集します。 たとえは、サンプルネットワークのパラメータを使った場合、ファイルは次のようにな ります。 DEVICE=bond0 IPADDR=192.168.0.1 NETMASK=255.255.255.0 NETWORK=192.168.0.0 BROADCAST=192.168.0.
8 各ノードに接続して、次のように入力し、プライベートネットワークと ssh が正しく機能し ていることを確認します。 ssh < プライベート IP> 9 各ノードで、/etc/hosts ファイルに以下の各行を追加して修正します。 127.0.0.1 localhost.localdomain localhost < プライベート IP node1> < プライベートホスト名 node 1> < プライベート IP node2> < プライベートホスト名 node2> < パブリック IP node1> < パブリックホスト名 node1> < パブリック IP node2> < パブリックホスト名 node2> < 仮想 IP node1> < 仮想ホスト名 node1> < 仮想 IP node2> < 仮想ホスト名 node2> メモ:この例と次の手順は 2 ノード構成の場合です。これを超えるクラスタノードがある 場合は、各ノードにこれらの行を追加します。 10 各ノードで、/etc/hosts.
システムの保護 システムへの不正なアクセスを防ぐために、Oracle ソフトウェアのインストール後は rsh を無効に することをお勧めします。次のように入力して、rsh を無効にします。 chkconfig rsh off ストレージ構成の確認 クラスタの設定中に、ファイバーチャネルストレージにパーティションを作成します。パーティ ションを作成するには、すべてのクラスタノードが外付けストレージデバイスを検出できるように する必要があります。各ノードが各ストレージ LUN または論理ディスクを検出できることを確認 するには、次の手順を実行します。 1 Dell | EMC ファイバーチャネルストレージでは、EMC Navisphere® エージェントと正しい バージョンの PowerPath(表 1-6 を参照)が各ノードにインストールされていて、 Navisphere エージェントソフトウェアに正しいストレージグループが割り当てられている ことを確認します。手順については、Dell | EMC ファイバーチャネルストレージを参照し てください。 メモ:この作業はクラスタをインストールしたデルの公認技術者
外付けストレージデバイスが /proc/partitions ファイル内に表示されない場合は、以下の手順を 実行します。 1 すべてのノードで、次のように入力して PowerPath サービスを停止します。 service naviagent stop service PowerPath stop 2 すべてのノードで、次のように入力して、HBA ドライバを再ロードしカーネルのパーティシ ョンテーブルを同期化します。 • QLogic HBA には、以下を入力します。 rmmod qla2300 modprobe qla2300 • Emulex HBA には、以下を入力します。 rmmod lpfc modprobe lpfc 3 すべてのノードで、次のように入力して PowerPath サービスを再起動します。 service PowerPath start service naviagent start 4 次のように入力して、すべてのノードが外付けストレージデバイスを検出できることを 確認します。 more /proc/partitions OCFS2 を使用した共有ストレージの
d クラスタにノードを追加する場合は、Add(追加)をクリックします。ノード名 (ホスト名と同じ)とプライベート IP を入力します。ポート番号はデフォルト値を 使用します。すべての情報を入力したら、OK をクリックします。クラスタにノー ドを追加するたびに、この手順を繰り返します。 e すべてのノードを追加したら、Node Configuration(ネットワーク設定)ウィンドウで Apply(適用)をクリックし、Close(閉じる)をクリックします。 f メニューから Cluster(クラスタ)→ Propagate Configuration(設定の伝播) の順に選択します。 Propagate Cluster Configuration(クラスタ設定の伝播)ウィンドウが表示されます。 Finished(完了)メッセージが表示されたら、Close(閉じる)をクリックします。 g File(ファイル)→ Quit(終了)の順に選択します。 3 すべてのノードで、次のように入力して、スタートアップ時のクラスタスタックを有効 にします。 /etc/init.
6 いずれか 1 つのノード上で、mkfs.ocfs2 コマンドユーティリティを使用して次のように 入力し、外部ストレージデバイスを、4 K ブロックサイズ、128 K クラスタサイズ、および 4 ノードスロット(ノードスロットとは、クラスタノード数のことです)としてフォーマ ットします。 mkfs.ocfs2 -b 4K -C 128K -N 4 -L u01 /dev/emcpowera1 mkfs.ocfs2 -b 4K -C 128K -N 4 -L u02 /dev/emcpowerb1 メモ:クラスタのフォーマットパラメータの設定方法については、 http://oss.oracle.com/projects/ocfs2/dist/documentation/ocfs2_faq.
ASM を使用した共有ストレージの設定 Cluster Ready Service(CRS)用の共有ストレージの設定 ASM を使用して共有ストレージを設定するには、以下の手順を実行します。 1 最初のノードで、fdisk を使って、外付けストレージデバイスに 3 つのパーティションを 作成します。 次のように入力して、クラスタリポジトリ、Voting Disk、および Oracle システムのパラメ ータファイルのそれぞれに 150 MB のパーティションを 3 つ作成します。 fdisk /dev/emcpowerx 2 各ノードで次のように入力して、新しいパーティションが作成されていることを確認します。 more /proc/partitions /proc/partitions ファイル内に新しいパーティションが表示されない場合は、次のように 入力します。 sfdisk -R /dev/< デバイス名 > a 次のように入力して、新しいデバイスを開始します。 udevstart b /etc/sysconfig/rawdevices ファイルを編集して、ファイバーチャネルクラスタ用に以下
b 次のように入力して、ASM カーネルモジュールを設定します。 /etc/init.d/oracleasm configure 次のメッセージが画面に表示されます。 Configuring the Oracle ASM library driver.(Oracle ASM ライブラリドライ バを設定しています。) This will configure the on-boot properties of the Oracle ASM library driver. The following questions will determine whether the driver is loaded on boot and what permissions it will have. The current values will be shown in brackets ('[]'). Hitting without typing an answer will keep that current value. Ctrl-C will abort.
2 いずれか 1 つのノードで、作成されているパーティションを ASM ディスクとしてマーキ ングします。 # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk "/dev/emcpowerb1" as an ASM disk:("/dev/emcpowerb1" ディスクを ASM ディスクとしてマーキング)[OK] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk "/dev/emcpowerc1" as an ASM disk:("/dev/emcpowerc1" ディスクを ASM ディスクとしてマーキング)[ OK ] 3 ほかのすべてのノードで ASM ディスクをスキャンします。 # /etc/init.
ローデバイスを使った共有ストレージの設定 すべてのノードで root としてログインし、次の操作を行います。 1 /etc/sysconfig/rawdevices ファイルを編集して、ファイバーチャネルクラスタ用に以下の 行を追加します。 /dev/raw/ASM1 /dev/emcpowerb1 /dev/raw/ASM2 /dev/emcpowerc1 2 次のように入力して、Raw Devices Service を再起動します。 service rawdevices restart Oracle RAC 10g のインストール 本項では Oracle RAC 10g バージョン 10.1.0.
9 10 Language Selection(言語の選択)ウィンドウで言語を選択し、Next(次へ)をクリッ クします。 Cluster Configuration(クラスタ構成)ウィンドウでグローバルクラスタ名を入力するかデ フォルト名 crs を受け入れてから、各ノードについてパブリックおよびプライベートのノード 名を入力し、Next(次へ)をクリックします。 クラスタ名は、企業の全ネットワーク中にほかに同一の名前があってはなりません。 11 Specify Network Interface Usage(ネットワークインタフェースの用途を指定する) ウィンドウで各インタフェースの種類をクリックし、public(パブリック)、private (プライベート)、または Do not use(使用しない)のいずれかを選択してから、Next (次へ)をクリックします。 メモ:この手順で選択するパブリックおよびプライベート NIC の割り当ては同じにし、 すべてのノードで利用可能なものにする必要があります。 12 Oracle Cluster Registry ウィンドウで、OCR ディスクの場所(/
Oracle Database 10g ソフトウェアのインストール 1 最初のノードで root としてログインします。 2 『Oracle Database 10g CD 1』をマウントします。 3 oracle ユーザーとして Oracle Universal Installer を起動します。 CD を使用する場合は、次のように入力します。 /media/cdrom/runInstaller DVD を使用する場合は、次のように入力します。 /media/cdrecorder/runInstaller 4 Welcome(ようこそ)ウィンドウで Next(次へ)をクリックします。 5 Specify File Locations(ファイルの場所の指定)ウィンドウで Oracle ホームのパスが /opt/oracle/product/10.1.
11 最初のノードで root.
10.1.0.5 パッチセットの適用 1 Oracle Metalink ウェブサイトから 10.1.0.5 パッチセット(p4505133_10105_LINUX.ZIP) をダウンロードします。 2 パッチセットを最初のノード上のフォルダ /oracle_cds/10.1.0.5 にコピーします。 3 次のように入力して、パッチセットを解凍します。 unzip p4505133_10105_LINUX.ZIP 4 次のように入力して、10.1.0.5 ディレクトリのオーナーシップを変更します。 chown -R oracle.dba /oracle_cds/10.1.0.5 5 最初のノードからインストーラを起動します。 RAC クラスタの一部となっているすべてのノードにパッチが適用されます。10.1.0.5 パッチ セットは、データベースのホームだけでなく、CRS にもパッチを適用します。 メモ:10.1.0.5 パッチセットは、すべてのメンバーノードの CRS に対するローリングアップグレー ドをサポートしています。 CRS を 10.1.0.
10 すべてのノードで、次の手順を実行します。 a /opt/oracle/product/10.1.0/crs_1/bin ディレクトリから次のコマンドを入力して、 CRS がインストールされたことを確認します。 olsnodes -n -v クラスタ内のすべてのノードのパブリックノード名が一覧表示されます。 b 次のように入力して、実行中のすべてのサービスの一覧を表示します。 crs_stat データベースを 10.1.0.5 パッチセットにパッチする方法 1 2 最初のノードで oracle としてログインします。 パッチセットをアップグレードする前に、次のように入力して Oracle Notification Services (ONS)を停止します。 onsctl stop 3 次のように入力して、Oracle インストーラを起動します。 /oracle_cds/10.1.0.
リスナーの設定 本項では、データベースへのリモートクライアントの接続に必要なリスナーの設定手順について説 明します。 いずれか 1 つのノードで、以下の手順を実行します。 1 root としてログインします。 2 次のように入力して、X Window System を起動します。 startx 3 ターミナルウィンドウを開き、次のように入力します。 xhost + 4 oracle ユーザー として以下を実行します。 source /home/oracle/.
シードデータベースの作成 本項では、OCFS2 または ASM を使ってシードデータベースを作成する手順とシードデータベース を検証する手順について説明します。 OCFS2 を使用したシードデータベースの作成 1 最初のノードで、oracle ユーザーとして、dbca -datafileDestination /u01 と入力し、DBCA(Database Configuration Assistant)を起動します。 2 Welcome(ようこそ)ウィンドウで Oracle Real Application Cluster Database (Oracle Real Application Cluster データベース)を選択してから、Next(次へ) をクリックします。 3 Operations(操作)ウィンドウで Create a Database(データベースの作成) をクリックしてから、Next(次へ)をクリックします。 4 Node Selection(ノードの選択)ウィンドウで Select All(すべて選択)をクリッ クしてから、Next(次へ)をクリックします。 5 6
16 Creation Options(作成オプション)ウィンドウで、Create a Database(データベー スの作成)を選択してから、Finish(終了)をクリックします。 17 Summary(サマリー)ウィンドウで OK をクリックして、データベースを作成します。 メモ:シードデータベースの作成には 1 時間以上かかる場合があります。 メモ:データベースの作成中に Enterprise Manager の設定エラーが表示されたら、そのまま OK を クリックし、エラーを無視してください。 データベースの作成が完了すると、Password Management(パスワード管理)ウィンドウ が表示されます。 18 Exit(終了)をクリックします。 クラスタデータベースがすべてのノードで起動中であることを示すメッセージが表示 されます。 19 各ノードで、以下の手順を実行します。 a 次のように入力して、そのノードにどのデータベースインスタンスが存在するかを 判断します。 srvctl status database -d < データベース名 > b 次のように入力して、orac
7 Management Options(管理オプション)ウィンドウで Next(次へ)をクリックします。 8 Database Credentials(データベース資格証明)ウィンドウで、Use the Same Password for All Accounts(すべてのアカウントに対して同じパスワードを使用)をクリックして、 パスワードの選択と入力を完了してから、Next(次へ)をクリックします。 9 Storage Options(ストレージオプション)ウィンドウで ASM をクリックし、Next(次へ) をクリックします。 10 Create ASM Instance(ASM インスタンスの作成)ウィンドウで、ユーザー SYS のパス ワードを入力して、Create server parameter file(サーバーパラメータファイルを作成) をクリックし、作成先を /dev/raw/spfile+ASM.
18 Recovery Configuration(リカバリ設定)ウィンドウで、Browse(参照)をクリックして、 手順 15 で作成したフラッシュバックグループ(たとえば、flashbackDG)を選択し、Next (次へ)をクリックします。 19 Database Content(データベースコンテンツ)ウィンドウで Next(次へ)をクリッ クします。 20 Database Services(データベースサービス)ウィンドウで Next(次へ)をクリックします。 21 Initialization Parameters(初期化パラメータ)ウィンドウで、クラスタに含まれるノード が 8 つある場合は Shared Pool(共有プール)の値を 500 MB に変更して、Next(次へ) をクリックします。 22 Database Storage(データベースストレージ)ウィンドウで Next(次へ)をクリッ クします。 23 Creation Options(作成オプション)ウィンドウで Create Database(データベー スの作成)を選択してから、Finish(完了)を
27 いずれか 1 つのノードで、次のように入力します。 srvctl status database -d dbname dbname は、DBCA でデータベースに定義したグローバル識別子名です。 データベースインスタンスがすでに起動している場合は、確認メッセージが画面に 表示されます。 データベースインストールが起動していない場合は、次のように入力します。 srvctl start database -d dbname dbname は、DBCA でデータベースに定義したグローバル識別子名です。 RAC Post 導入のパッチと修正 本項では、Oracle RAC 10g 導入のために必要なパッチと修正について説明します。 EMC PowerPath を正常にフェイルオーバーさせるための CSS Miscount の再設定 HBA、スイッチ、または EMC ストレージプロセッサ(SP)に障害が発生すると、PowerPath の代替デバイスへのフェイルオーバー時間が合計で 105 秒を超える可能性があります。Oracle 10g R1 バージョン 10.1.0.
Oracle Database 10g の設定および導入(シングルノード) 本項では、Red Hat Enterprise Linux のインストールと設定に説明されている初期セットアッ プまたは再インストール手順に関する情報を提供します。本項では、以下のトピックについて 説明します。 • パブリックネットワークの設定 • データベースストレージの設定 • Oracle Database 10g のインストール • リスナーの設定 • シードデータベースの作成 • oracle ユーザーのパスワードの設定 パブリックネットワークの設定 パブリックネットワークが機能していること、IP アドレスとホスト名がシステムに割り当てられて いることを確認します。 データベースストレージの設定 ext3 ファイルシステムを使用したデータベースストレージの設定 ストレージを追加した場合は、以下の手順を実行します。 1 root としてログインします。 2 次のように入力します。 cd /opt/oracle 3 次のように入力します。 mkdir oradata recovery 4
5 fdisk を使用して、リカバリファイルを保管するパーティションを作成します(たとえば、 ストレージデバイスが sdc なら sdc1)。 6 次のように入力して、新しいパーティションを確認します。 cat /proc/partitions 新しいパーティションが見つからない場合は、次のように入力します。 sfdisk -R /dev/sdb sfdisk -R /dev/sdc 7 次のように入力します。 mke2fs -j /dev/sdb1 mke2fs -j /dev/sdc1 8 新しく作成したファイルシステムの内容を /etc/fstab ファイルに追加入力します。 9 次のように入力します。 mount /dev/sdb1 /opt/oracle/oradata mount /dev/sdc1 /opt/oracle/recovery 10 次のように入力します。 chown oracle.
b 次のように入力して、ASM カーネルモジュールを設定します。 /etc/init.d/oracleasm configure 次のメッセージが画面に表示されます。 Configuring the Oracle ASM library driver.(Oracle ASM ライブラリドラ イバを設定しています。) This will configure the on-boot properties of the Oracle ASM library driver. The following questions will determine whether the driver is loaded on boot and what permissions it will have. The current values will be shown in brackets ('[]'). Hitting without typing an answer will keep that current value. Ctrl-C will abort.
c 作成したパーティションを ASM ディスクとして設定します。 # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk "/dev/emcpowerb1" as an ASM disk:("/dev/emcpowerb1" ディスクを ASM ディスクとしてマーキング)[OK] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk "/dev/emcpowerc1" as an ASM disk:("/dev/emcpowerc1" ディスクを ASM ディスクとしてマーキング)[ OK ] 2 ほかのすべてのノードで ASM ディスクをスキャンします。 # /etc/init.
Oracle Database 10g のインストール Oracle Database 10g をインストールするには、以下の手順を実行します。 1 root としてログインします。 2 『Oracle Database 10g CD 1』をマウントします。 3 次のように入力して、X Window System を起動します。 startx 4 ターミナルウィンドウを開き、次のように入力します。 xhost + 5 oracle としてログインします。 6 oracle ユーザーとして Oracle Universal Installer を起動します。 CD を使用する場合は、次のように入力します。 /media/cdrom/runInstaller DVD を使用する場合は、次のように入力します。 /media/cdrecorder/runInstaller 7 Welcome(ようこそ)ウィンドウで Next(次へ)をクリックします。 8 Specify File Locations(ファイルの場所の指定)ウィンドウで Oracle ホームのパスが /opt/oracle/p
10.1.0.5 パッチセットの適用 1 Oracle Metalink から 10.1.0.5 パッチセット(p4505133_10105_LINUX.ZIP)をダウンロ ードします。 2 パッチセットをノードの 1 つにあるフォルダ /oracle_cds/10.1.0.5 にコピーします。 3 次のように入力して、パッチセットを解凍します。 unzip p4505133_10105_LINUX.ZIP 4 次のように入力して、10.1.0.5 ディレクトリのオーナーシップを変更します。 chown -R oracle.dba /oracle_cds/10.1.0.5 データベースを 10.1.0.5 パッチセットにパッチする方法 1 oracle としてログインします。 2 次のように入力して、Oracle インストーラを起動します。 /oracle_cds/10.1.0.
リスナーの設定 1 root としてログインします。 2 次のように入力して、X Window System を起動します。 startx 3 ターミナルウィンドウを開き、次のように入力します。 xhost + 4 oracle としてログインします。 5 次のように入力して、Oracle Net Configuration Assistant を起動します。 netca 6 デフォルトの設定を受け入れて、すべての画面で Next(次へ)をクリックし、 設定を完了します。 シードデータベースの作成 ext3 ファイルシステムを使用したシードデータベースの作成 Oracle DBCA でシードデータベースを作成するには次の手順を実行します。 1 oracle としてログインします。 2 次のように入力して、Oracle DBCA を起動します。 dbca 3 Welcome(ようこそ)ウィンドウで Next(次へ)をクリックします。 4 Operations(操作)ウィンドウで Create a Database(データベースの作成)をクリック してから、Next(次へ)
11 Recovery Configuration(リカバリ設定)ウィンドウで、Browse(参照)をクリックして、 「ext3 ファイルシステムを使用したデータベースストレージの設定」で作成したフラッシュ バックリカバリ領域(たとえば、/opt/oracle/recovery)を選択し、Next(次へ) をクリックします。 12 Database Content(データベースコンテンツ)ウィンドウで Next(次へ)をクリッ クします。 13 Initialization Parameters(初期化パラメータ)ウィンドウで Next(次へ)をクリッ クします。 14 Database Storage(データベースストレージ)ウィンドウで Next(次へ)をクリッ クします。 15 Creation Options(作成オプション)ウィンドウで Create Database(データベー タの作成)をクリックし、Finish(完了)をクリックします。 16 Confirmation(確認)ウィンドウで OK をクリックし、データベースを作成します。 メモ:シードデータベースの作成には
ASM を使ったシードデータベースの作成 ASM を使用してストレージを設定した場合は、Oracle DBCA を使用し、次の手順を実行してシー ドデータベースを作成します。 1 次のように入力して、oracle ユーザーとして DBCA を起動します。 dbca & 2 Welcome(ようこそ)ウィンドウで Next(次へ)をクリックします。 3 Operations(操作)ウィンドウで Create a Database(データベースの作成)をクリッ クしてから、Next(次へ)をクリックします。 4 Database Templates(データベーステンプレート)ウィンドウで Custom Database (カスタムデータベース)をクリックしてから、Next(次へ)をクリックします。 5 Database Identification(データベース識別情報)ウィンドウで、oradb のようなグロ ーバルデータベース名を入力し、Next(次へ)をクリックします。 6 Management Options(管理オプション)ウィンドウで Next(次へ)をクリックします。 7
14 Disk Group(ディスクグループ)ウィンドウに、フラッシュバックリカバリファイルの情報 を入力して、OK をクリックします。 flashbackDG など、作成するディスクグループの名前を入力し、External Redundancy (外部冗長性)を選択してから、ディスクグループに含めるディスク(たとえば、 /dev/raw/ASM2)を選択します。 ディスクグループが作成中であることを示すウィンドウが表示されます。 15 ASM Disk Groups(ASM ディスクグループ)ウィンドウで、データベースストレージに使 用するディスクグループをチェックし(たとえば、databaseDG)、Next(次へ)をクリ ックします。 16 Database File Locations(データベースファイルの位置)ウィンドウで、Use Common Location for All Database Files(すべてのデータベースファイルに対して共通の位 置を使用)をチェックし、Next(次へ)をクリックします。 17 Recovery Configuration(リカバリ設定)ウィン
oracle ユーザーのパスワードの設定 システム保護のために、oracle ユーザーにはパスワードを設定することを強くお勧めします。 以下の手順に従って、oracle ユーザーのパスワードを設定します。 1 root としてログインします。 2 次のように入力し、表示される指示に従って、oracle ユーザーのパスワードを設定します。 passwd oracle ノードの追加と削除 本項では既存のクラスタにノードを追加する手順とクラスタからノードを削除する手順につい て説明します。 既存のクラスタにノードを追加するには、以下の手順を実行します。 • ネットワーク層にノードを追加します。 • 共有ストレージを設定します。 • クラスタウェア、データベース、およびデータベースインスタンスの各層にノードを追 加します。 既存のクラスタからノードを削除するには、追加の手順を逆にして、データベースインスタンス、 データベース、そしてクラスタウェアの各層からノードを削除する必要があります。 既存のクラスタにノードを追加する方法の詳細については、Oracle の Web サイト www.oracle.
新しいノードの共有ストレージの設定 既存の RAC データベースを新しいノードに拡張するには、ストレージを既存のノードと同様に するため、新しいノード用にストレージの設定を行います。本項では、ASM または OCFS2 を使用した場合の適切な手順を説明します。 ASM を使用した共有ストレージの設定 CRS 用の共有ストレージの設定 ASM を使用して共有ストレージを設定するには、次の手順に従います。 新しいノードで、次のように入力して、新しいパーティションを確認します。 more /proc/partitions /proc/partitions ファイル内に新しいパーティションが表示されない場合は、次のように入 力します。 sfdisk -R /dev/< デバイス名 > 1 次のように入力して、新しいデバイスを開始します。 udevstart 2 /etc/sysconfig/rawdevices ファイルを編集して、ファイバーチャネルクラスタ用に以下 の行を追加します。 /dev/raw/votingdisk /dev/emcpowera1 /dev/raw/ocr.
2 次のように入力して、ASM カーネルモジュールを設定します。 /etc/init.d/oracleasm configure 次のメッセージが画面に表示されます。 Configuring the Oracle ASM library driver.(Oracle ASM ライブラリドライ バを設定しています。) This will configure the on-boot properties of the Oracle ASM library driver. The following questions will determine whether the driver is loaded on boot and what permissions it will have. The current values will be shown in brackets ('[]'). Hitting without typing an answer will keep that current value. Ctrl-C will abort.
3 次のように入力して、ASM ディスクをスキャンします。 /etc/init.d/oracleasm scandisks Scanning system for ASM disks:(ASM ディスクのシステムスキャン)[ OK ] 4 次のように入力して、すべての ASM ディスクが認識されるかどうかを確認します。 /etc/init.
5 OCFS2 設定ファイル /etc/ocfs2/cluster.conf に新しいノードを追加するには、既存ノードの 1 つで次の操作を行います。 a 次のように入力して、X Window System を起動します。 startx b ターミナルで次のように入力して、ocfs2 のデフォルトクラスタ名を使用する OCFS2 設定ファイル(/etc/ocfs2/cluster.
9 すべてのノードで次のように入力し、/etc/fstab ファイルの一覧にあるすべてのボリュー ムをマウントします。 mount -a -t ocfs2 10 新しいノードで、/etc/rc.local ファイルに次のコマンドを追加します。 mount -a -t ocfs2 11 新しく追加したノード以外のすべてのノードで、次の操作を行って、CRS とデータベース を起動します。 a root ユーザーとして、次のように入力します。 /etc/init.d/init.crs start b oracle ユーザーとして、次のように入力します。 srvctl start database -d < データベース名 > クラスタウェア層への新しいノードの追加 1 既存ノードの 1 つで oracle としてログインします。 2 次のように入力し、/opt/oracle/product/10.1.0/crs_1/oui/bin ディレクトリから Oracle Universal Installer を起動します。 addNode.
データベース層への新しいノードの追加 1 既存のノードの 1 つで oracle としてログインします。 2 次のように入力し、/opt/oracle/product/10.1.0/db_1/oui/bin ディレクトリから Oracle Universal Installer を起動します。 addNode.sh 3 Welcome(ようこそ)ウィンドウで Next(次へ)をクリックします。 4 Specify Cluster Nodes for Node Addition(ノードの追加のためのクラスタノー ドの指定)ウィンドウで、新しいノードをクリックしてから、Next(次へ)をクリッ クします。 すべての確認テストに問題がなければ、Node Addition Summary(ノード追加のサマリー) ウィンドウが表示されます。 5 Next(次へ)をクリックします。 Cluster Node Addition Progress(クラスタノード追加の進行状況)ウィンドウにクラスタ ノード追加処理のステータスが表示されます。 6 確認のメッセージが表示されたら、新しいノードで root.
データベースインスタンス層への新しいノードの追加 1 既存ノードの 1 つで、oracle ユーザーとして次のように入力し、DBCA を起動します。 dbca 2 Welcome(ようこそ)ウィンドウで Oracle Real Application Cluster Database (Oracle Real Application Cluster データベース)を選択してから、Next(次へ)をクリッ クします。 3 Operations(操作)ウィンドウで、Instance Management(インスタンス管理)をクリッ クしてから、Next(次へ)をクリックします。 4 Instance Management(インスタンス管理)ウィンドウで、Add Instance(インスタン スの追加)をクリックしてから、Next(次へ)をクリックします。 5 List of Cluster Databases(クラスタデータベースの一覧)ウィンドウで既存のデータベー スを選択します。 使用したユーザー名が OS によって認証されない場合は、SYSDBA 権限を持つデータベース ユーザーに対するユ
クラスタからのノードの削除 データベースインスタンス層からのノードの削除 最初のノードで oracle としてログインし、次の操作を行います。 1 次のように入力します。 dbca 2 Welcome(ようこそ)ウィンドウで Next(次へ)をクリックします。 3 Operations(操作)ウィンドウで、Instance Management(インスタンス管理)をクリッ クしてから、Next(次へ)をクリックします。 4 Instance Management(インスタンス管理)ウィンドウで Delete Instance(インスタン スの削除)をクリックしてから、Next(次へ)をクリックします。 5 List of Cluster Databases(クラスタデータベースの一覧)ウィンドウで、インスタンス を削除する RAC データベースを選択します。 使用したユーザー名が OS によって認証されない場合は、SYSDBA 権限を持つデータベース ユーザーに対するユーザー名とパスワードの入力を求めるメッセージが DBCA によって表示 されます。 6 ユーザー名 sys とパスワー
データベース層からのノードの削除 1 削除するノードで、oracle としてログインします。 2 削除するノードのパブリック名を使用して、以下のコマンドを入力します。 ( 例:node3-pub): srvctl stop nodeapps -n node3-pub 3 削除するノードで、root としてログインします。 4 削除するノードのパブリック名を使用して、以下のコマンドを入力します。 ( 例:node3-pub): /opt/oracle/product/10.1.0/db_1/install/rootdeletenode.sh node3-pub これで CRS ノードアプリケーションが削除されます。表示される警告はすべて無視してか まいません。 5 Oracle データベースソフトウェアを削除する場合は、次のコマンドを入力します。 rm -rf /opt/oracle/product/10.1.
OCFS2 クラスタからのノードの削除 1 削除するノード上で次の手順を実行します。 a root としてログインします。 b 次のように入力して、マウントされている OCFS2 ボリュームをアンマウントします。 umount -a -t ocfs2 c 次のように入力して O2CB サービスを停止します。 /etc/init.d/o2cb stop d 次のように入力して O2CB サービスを無効にします。 /etc/init.d/o2cb enable e /etc/fstab ファイルから OCFS2 エントリを削除します。 f 次のように入力して、OCFS2 設定ファイルを削除します。 rm -f /etc/ocfs2/cluster.
ソフトウェアの再インストール 注意:ソフトウェアを再インストールすると、ハードドライブ上のすべてのデータは削除されます。 注意:ソフトウェアを再インストールする前に、すべての外付けストレージデバイスをシステムから 取り外してください。 注意:貴重なデータを失わないように、データベースと個々のノードを定期的にバックアップするこ とをお勧めします。ノードソフトウェアの再インストールは最後の手段としてください。 『Dell Deployment CD』を使用してソフトウェアをインストールすると、ハードウェア上に再導入 パーティションが作成され、そのパーティションにはシステムにインストールされたソフトウェアイ メージのすべてが含まれています。再導入パーティションを使用すると、簡単に Oracle ソフトウェ アの再導入が行えます。 再導入パーティションからソフトウェアを再インストールするには、システムをそのパーティショ ンから起動する必要があります。システムがこのパーティションから起動すると、Red Hat Linux が自動的に再インストールされます。 再導入パーティションからソフトウェアを再インストールするには、
追加情報 サポートされるソフトウェアのバージョン メモ:今回のリリースに含まれる Oracle をサポートするデルの設定では、Emulex HBA はサポートされ ていません。 リリース時点でサポートされているソフトウェアの一覧を表 1-6 に示します。サポートされている ハードウェアとソフトウェアの最新バージョンについては、Dell | Oracle Tested and Validated Configurations(デルと Oracle で検証済みの構成)ウェブサイト www.dell.com/10g から Oracle Database 10g EM64T x86 バージョン 1.2 Solution Deliverable List をダウンロードして参 照してください。 表 1-6 サポートされるソフトウェアのバージョン ソフトウェアコンポーネント サポートされるバージョン Red Hat Enterprise Linux AS (バージョン 4) Quarterly Update 3 for Intel x86 2.6.9-34.EL Oracle パッチセット 10.1.0.
表 1-6 サポートされるソフトウェアのバージョン (続き) ソフトウェアコンポーネント サポートされるバージョン PERC 4/DC、PERC 4/Di、PERC 4e/Di、PERC 4e/Si、 または PERC 4e/DC Driver (megaraid2) 2.20.4.6 Intel PRO/100 S NIC ドライバ(e100) 6.1.16-k3-NAPI Intel PRO/1000 MT NIC ドライバ(e1000) 6.1.16-k3-NAPI Broadcom NetXtreme BCM5704 NIC ドライバ (5703, 5701) (tg3) 3.
10 Express Setup(簡易セットアップ)をクリックします。 11 Installation Summary(インストールの概要)の画面の情報を読み、Next(次へ)をクリ ックします。 ご使用のハードウェア構成に必要なすべてのシステム管理ソフトウェアがセットアッププログ ラムによって自動的にインストールされます。 12 インストールが完了したら、Finish(終了)をクリックします。 システム管理ソフトウェアのアンインストール方法については、『Dell OpenManage Server Administrator ユーザーズガイド』を参照してください。 自動再起動オプションを設定するには、次の手順を実行します。 1 次のように入力します。 omconfig system recovery action=reboot このコマンドによって、自動再起動タイマーがデフォルトの 480 秒に設定されます。これは、 応答しなくなったシステムをタイマーが自動的に再起動するまでの待ち時間です。 2 タイマーの設定を変更するには、次のように別の値を入力します。 omconfig system
表 1-7 内蔵 NIC システム 内蔵 NIC PowerEdge 1750 Broadcom NetXtreme Gigabit (2) PowerEdge 1850 Intel PRO/1000 (2) PowerEdge 2600 Intel PRO/1000 PowerEdge 2650 Broadcom NetXtreme Gigabit (2) PowerEdge 2800 Intel PRO/1000 (2) PowerEdge 2850 Intel PRO/1000 (2) PowerEdge 4600 Broadcom NetXtreme Gigabit (2) PowerEdge 6600 Broadcom NetXtreme Gigabit (2) PowerEdge 6650 Broadcom NetXtreme Gigabit (2) PowerEdge 6800 Broadcom NetXtreme Gigabit (2) PowerEdge 6850 Broadcom NetXtreme Gigabit (2) 2 Broa
トラブルシューティング Red Hat Enterprise Linux および Oracle ソフトウェアの導入と使用にあたって発生する可能性のあ る問題と対処方法を表 1-8 に示します。 表 1-8 トラブルシューティング カテゴリ 問題 / 症状 パフォー マンスと 安定性 Red Hat Enterprise SGA (Oracle System Linux のパフォーマ Global Area)が推奨サ ンスと安定性が良 イズを超えている。 くない。スワッ プスペースの使 用が多すぎる。 パフォー マンスと 安定性 Oracle アラー トファイル内に インタフェー スタイプ不明 の警告がある。 システムパフォ ーマンスの低下。 原因 推奨される対応措置 • SGA サイズがシステム RAM 合計容量の 65% を超えないようにします。 • コマンドプロンプトで free と入力して総メモリ容 量を確認し、総メモリに応じて Oracle パラメータファイル内のパラメータ db_cache_size と shared_pool_size の値を小さくします。 パブリックインタフェ
表 1-8 トラブルシューティング (続き) カテゴリ 問題 / 症状 原因 推奨される対応措置 NETCA が誤動 作して、データベ ース作成が失 敗する。 パブリックネット ワーク、ホスト名、仮想 IP が /etc/hosts.equiv ファイル内の一覧 にない。 netca を起動する前に、ホスト名がパブリックネット ワークに割り当ててあること、/etc/hosts.equiv ファイル内のリストにパブリック IP アドレスと仮想 IP アドレスが入っていることを確認します。 NETCA NETCA がリモー トノードを設定 できない。または、 DBCA 実行中に raw デバイス検証エラー が発生する。 /etc/hosts.equiv 各ノードで、/etc/hosts.
表 1-8 トラブルシューティング (続き) カテゴリ 問題 / 症状 原因 推奨される対応措置 CRS root.sh 実行時に CRS が起動で きない。 OCR ファイルと Voting I/O の問題を解決して、該当ノードを再起動 Disk にアクセスで するか、 /opt/oracle/product/10.1.0/crs_1/ きない。 から root.sh を実行して、 もう一度このサービスが 起動できるかどうか試してみます。 CRS 再インストール後の OCR ファイルと Voting 1 以下の行を入力して、OCR と Voting Disk をクリ アします。 root.sh 実行時に Disk がクリアされず、 CRS が起動 古い情報が残っている。 dd if=/dev/zero of=/dev/raw/ocr.
表 1-8 トラブルシューティング (続き) カテゴリ 問題 / 症状 原因 CRS root.sh 実行時に CRS が起動 できない。 その他の CRS トラブル シューティングの手順 を試したが、失敗した。 推奨される対応措置 1 次の行を root.sh に追加して、デバッグを可能 にします。 set -x 2 /opt/oracle/product/10.1.0/crs_1/ から root.
表 1-8 トラブルシューティング (続き) カテゴリ 問題 / 症状 原因 DBCA OCFS ボリュー 既知の間欠的問題。 ム上の DBCA を使ってシードデー タベースを 作成する際に、 ORA-60、 ORA-06512、または ORA-34740 のエラーが発 生する。 推奨される対応措置 Ignore をクリックすると、シードデータベースが正 常に作成されます。 ソフト 『Deployment CD 1』オリジナルの『Red Hat システムに付属しているオリジナルの ウェア を使用した CD』ではなく、コピー 『Red Hat CD』 を使用します。 のインス ソフトウェアの を使用している。 トール インストール中 に dd 失敗のエラー メッセージが表 示される。 ソフトウ ェアの インス トール oracle 以外のユ ーザーとして、 データベースに 接続する際に、 ORA01034: ORACLE not available (ORACLE が使用で きません)および Linux Error 13:Permission denied (パーミッ ションが拒否され ました
表 1-8 トラブルシューティング (続き) カテゴリ 問題 / 症状 DBCA ORA-04031 による unable to 8 ノード allocate OCFS2 4180 bytes of のセット shared memory アップ (ORA-04031 が共 有メモリの 4180 バイトを割り当てら れませんでした) というエラー メッセージが 表示される。 OCFS2 336 原因 8 ノードクラスタに対 Initialization Parameters(初期化パ するメモリ割り当ての ラメータ)ウィンドウで、 Shared Pool デフォルト設定が小 (共有プール)の値をデフォルトの 95 MB さすぎる。 から 500 MB に変更して、Next(次へ) をクリックします。 再起動時に、 マウント時にプライ 次のエラーメッセ ベート相互接続が行 ージが表示される。 われていない。 mount.
困ったときは デルサポート システムの詳しい使い方については、システムコンポーネントに付属のマニュアルを参照し てください。 各種の白書、デルがサポートする設定、一般情報については、デルと Oracle のウェブサイト www.dell.com/oracle を参照してください。 ハードウェアおよび OS ソフトウェアのデルテクニカルサポート、および、お使いのシステムで利 用できる最新のアップデートのダウンロードについては、デルサポートサイト support.dell.com を参照してください。デルへの問い合わせ先については、システムに付属の『インストール&トラ ブルシューティング』に記載されています。 デルでは、企業向けのトレーニングと資格認証を実施しております。詳細については、 http://www.dell.com/training を参照してください。このトレーニングサービスは、ご利用いた だけない地域もあります。 Oracle のサポート Oracle ソフトウェアおよびアプリケーションクラスタウェアのトレーニングについては、Oracle のウェブサイト www.oracle.
導入ガイド
索引 A ASM データベースストレージの 設定, 306 ASM 設定, 290 C CRS インストール, 293 H hugemem, 277, 281 Oracle Database 10g インストール, 295 インストール(シング ルノード), 309 シングルノードの設定, 305 Oracle Database 10g の設定 (シングルノード), 305 Oracle RAC 10g ASM 設定, 290 OCFS の設定, 287 インストール, 293 構成, 281 Oracle RAC 10g の設定 シードデータベース の作成, 300 Oracle RAC 10g の導入, 281 O OCFS 共有ストレージの設定, 318 OCFS の設定, 287 Oracle 10g の設定 ハードウェアおよびソ フトウェアの設定 の確認, 279 い インストール CRS, 293 Dell Deployment CD の使 用, 276 Oracle Database 10g, 295 Oracle Database 10g(シン グルノード), 309 Oracle
索引 く せ つ クラスタ ファイバーチャネルのハー ドウェア接続例, 279 セキュリティ, 286 追加情報 自動再起動の設定, 328 プライベートネットワーク インタフェースの 確認, 329 クラスタのセットアップ ファイバーチャネル, 279 け 検証 シードデータベース, 304, 312 こ 困ったときは, 337 さ 再インストール ソフトウェア, 326 設定 ASM, 290 ASM を使用したデータベー スストレージ(シングル ノード), 306 ASM を使用した共有スト レージ, 290 ex3 を使用したデータベース ストレージ(シングル ノード), 305 OCFS, 287 OCFS を使った共有ス トレージ, 287 Oracle Database 10g(シン グルノード), 305 Oracle RAC 10g, 281 Red Hat Enterprise Linux, 277 データベースストレージ (シングルノード), 305 追加設定オプション ノードの追加と削除, 315 と トラブルシューテ ィング, 331 な 内蔵
ハードウェアおよびソフト ウェアの構成 ファイバーチャネル, 281 パスワード 設定, 304, 315 パブリックおよびプライベー トネットワークの設 定, 282 パブリックネットワーク 設定, 282 り リスナーの設定, 299, 311 リモートシェル(rsh) 無効にする, 286 れ 例 ファイバーチャネルクラス タ用のハードウェア接 続, 279 ふ ファイバーチャネルクラスタ のセットアップ, 279 プライベートネットワーク インタフェースの確認, 329 設定, 282-283 ほ ボンディング, 283 ま マニュアル, 276 ら ライセンス契約, 276 索引 341
索引 342 索引
Sistemas Dell™ PowerEdge™ Base de datos Oracle 10g Enterprise Edition — Linux para tecnología Intel® de 32 bits (x86) Guía de implantación versión 2.2 w w w. d e l l . c o m | s u p p o r t . d e l l .
Notas y avisos NOTA: una NOTA proporciona información importante que le ayudará a utilizar mejor el ordenador. AVISO: un AVISO indica la posibilidad de daños en el hardware o la pérdida de datos, e informa de cómo evitar el problema. ____________________ La información contenida en este documento puede modificarse sin previo aviso. © 2006 Dell Inc. Reservados todos los derechos. Queda estrictamente prohibida la reproducción de este documento en cualquier forma sin la autorización por escrito de Dell Inc.
Contenido Servicio de implantación de Oracle RAC 10g . . . . . . . . . . . . . . . . . 347 . . . . . . . . . . . . . . . . . . . . . 348 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 350 . . . . . . . . . . 350 . . . . . . . . . . . . . . . . . . . . 350 351 351 . . . . . . . . . . 352 Requisitos de software y hardware . Contratos de licencia . . . . Documentación importante .
Configuración e implantación de la base de datos Oracle 10g (un solo nodo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuración de la red pública . . . . . . . . . . . . . . . . . Configuración del almacenamiento de base de datos . . . . . . Configuración del almacenamiento compartido mediante ASM . Instalación de la base de datos Oracle 10g . . . . . . . . . . . Aplicación del patchset 10.1.0.5 . . . . . . . . . . . . . . . . . Configuración del proceso de escucha . . . . . . .
En este documento se proporciona información sobre cómo instalar, configurar, reinstalar y utilizar el software de base de datos Oracle 10g Enterprise Edition con Real Application Clusters (RAC) en su configuración Dell|Oracle admitida. NOTA: utilice este documento junto con el CD de implantación de Dell™ para instalar el software. Si instala el sistema operativo utilizando únicamente los CD del sistema operativo, las instrucciones descritas en este documento pueden no ser aplicables.
Requisitos de software y hardware Antes de instalar el software Oracle RAC en el sistema, siga las instrucciones del documento Implantación de configuraciones probadas y validadas por Dell para la base de datos Oracle suministrado con el kit para: • Descargar los CD de Red Hat de la página web de Red Hat en rhn.redhat.com • Localizar el kit de CD de Oracle o descargar el software Oracle de la página web de Oracle (www.oracle.
Tabla 1-2.
Contratos de licencia NOTA: la configuración de Dell incluye una licencia de prueba de 30 días para el software Oracle. Si no tiene licencia para este producto, póngase en contacto con el representante de ventas de Dell. Documentación importante Para obtener más información sobre componentes de hardware específicos, consulte la documentación incluida con el sistema. Para obtener información sobre productos Oracle, consulte la guía How to Get Started (Cómo empezar) incluida en el kit de CD de Oracle.
8 Cuando se le solicite, especifique una contraseña root. 9 Cuando aparezca la ventana Network Setup (Configuración de red), haga clic en Next (Siguiente). Configurará la red más adelante, ya que no puede configurar el bonding de red en esta ventana. 10 Cuando aparezca la ventana Security Level (Nivel de seguridad), desactive el servidor de seguridad. Puede activar el servidor de seguridad después de finalizar la implantación de Oracle. 11 Inicie la sesión como root.
5 Compruebe que el procesador, la RAM y el tamaño de disco coinciden con los requisitos mínimos de instalación de Oracle; para ello, escriba: ./010-hwCheck.py Si la secuencia de comandos informa de que hay un error en un parámetro, actualice la configuración del hardware y vuelva a ejecutar la secuencia de comandos. 6 Si va a implantar el clúster mediante OCFS2, realice los pasos siguientes: a Instale OCFS2 Red Hat Package Managers (RPM); para ello, escriba: ./340-rpms_ocfs.
Figura 1-1.
Tabla 1-4.
Configuraciones de hardware y software para Fibre Channel • • Cada nodo debe incluir al menos los componentes periféricos de hardware siguientes: – Una o dos unidades de disco duro (36 GB como mínimo) en el compartimiento para unidades de disco duro internas – Tres puertos NIC Gigabit – Dos HBA Fibre Channel Cada nodo debe tener instalado el software siguiente: – Software Red Hat Enterprise Linux (vea la tabla 1-1) – Controlador HBA Fibre Channel – Módulo OCFS2 para el kernel y las herramienta
Configuración de las redes pública y privada En esta sección se presentan los pasos necesarios para configurar las redes de clúster pública y privada. NOTA: cada nodo requiere una dirección IP pública y una dirección IP privada exclusivas y otra dirección IP pública que se utilizará como dirección IP virtual en las conexiones de cliente y en caso de sustitución tras error de las conexiones. La dirección IP virtual debe pertenecer a la misma subred que la IP pública.
5 Compruebe que las direcciones IP están configuradas correctamente; para ello, escriba: ifconfig 6 Compruebe la configuración de la red ejecutando el comando ping para cada dirección IP pública desde un cliente de la LAN que se encuentre fuera del clúster.
5 Para cada uno de los dispositivos miembros del bond, realice los pasos siguientes: a En el directorio /etc/sysconfig/network-scripts/, edite el archivo ifcfg-ethn, que contiene las líneas siguientes: DEVICE=ethn HWADDR= ONBOOT=yes TYPE=Ethernet USERCTL=no MASTER=bond0 SLAVE=yes BOOTPROTO=none b Escriba service network restart e ignore todas las advertencias.
10 En cada nodo, cree o modifique el archivo /etc/hosts.equiv enumerando todas las direcciones IP públicas o nombres de host.
4 Escriba lo siguiente en cada nodo: more /proc/partitions El nodo detecta y muestra los LUN o discos lógicos, así como las particiones creadas en estos dispositivos externos. NOTA: los dispositivos de la lista varían según la configuración del almacenamiento. Aparece una lista de los LUN o discos lógicos detectados por el nodo, así como las particiones que se han creado en dichos dispositivos externos.
Configuración del almacenamiento compartido mediante OCFS2 El almacenimiento compartido puede configurarse utilizando OCFS2 o ASM. En esta sección se indican los procedimientos para configurar el almacenamiento compartido mediante OCFS2. 1 Inicie la sesión como root en el primer nodo. 2 Realice los pasos siguientes: a Inicie el sistema X Window; para ello, escriba: startx b Genere el archivo de configuración de OCFS2 (/etc/ocfs2/cluster.
5 En el primer nodo de un clúster Fibre Channel, cree una partición en cada uno de los dos dispositivos de almacenamiento externo con fdisk: a Cree una partición primaria para todo el dispositivo; para ello, escriba: fdisk /dev/emcpowerx Escriba h para obtener ayuda en la utilidad fdisk.
Configuración del almacenamiento compartido mediante ASM Configuración del almacenamiento compartido para Cluster Ready Service (CRS) Para configurar el almacenamiento compartido con ASM, realice los pasos siguientes: 1 En el primer nodo, cree tres particiones en un dispositivo de almacenamiento externo con fdisk: Cree tres particiones de 150 MB cada una para el repositorio de clúster, el disco de votación y el archivo de parámetros del sistema de Oracle; para ello, escriba: fdisk /dev/emcpowerx 2 Verifiqu
Configuración del almacenamiento compartido mediante ASMLib 1 Para configurar el clúster mediante ASM, realice los pasos siguientes en todos los nodos: a Inicie la sesión como root. b Configure el kernel ASM; para ello, escriba: /etc/init.d/oracleasm configure Aparece el mensaje siguiente en la pantalla: Configuring the Oracle ASM library driver. This will configure the on-boot properties of the Oracle ASM library driver.
2 Etiquete las particiones creadas anteriormente como discos ASM en cualquiera de los nodos. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk "/dev/emcpowerb1" as an ASM disk: [ OK ] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk "/dev/emcpowerc1" as an ASM disk: [ OK ] 3 Examine todos los discos ASM en los demás nodos. # /etc/init.
Instalación de Oracle RAC 10g En esta sección se describen los pasos necesarios para instalar Oracle RAC 10g versión 10.1.0.3, incluida la instalación de CRS y del software de base de datos Oracle 10g. Dell recomienda crear una base de datos semilla para verificar que el clúster funciona correctamente antes de implantarlo en un entorno de producción. Instalación de CRS 1 Inicie la sesión como root en el primer nodo.
12 En la ventana Oracle Cluster Registry (Registro del clúster Oracle), introduzca la ruta completa de la ubicación del disco OCR (/dev/raw/ocr.dbf) y haga clic en Next (Siguiente). NOTA: si ha utilizado una partición OCFS2 compartida para el disco OCR y el disco de votación, introduzca la ruta apropiada.
7 En la ventana Select Installation Type (Seleccionar tipo de instalación), seleccione Enterprise Edition y haga clic en Next (Siguiente). Se muestra el estado de las diferentes comprobaciones de requisitos previos que se están realizando. Una vez finalizadas las comprobaciones, puede que reciba una advertencia de falta coincidencia de versión del paquete openmotif. Marque la opción Warning (Advertencia) y haga clic en Next (Siguiente).
Aplicación del patchset 10.1.0.5 1 Descargue el patchset 10.1.0.5 (p4505133_10105_LINUX.ZIP) de la página web de Oracle MetaLink. 2 Copie el patchset en la carpeta /oracle_cds/10.1.0.5 en el primer nodo. 3 Descomprima el patchset; para ello, escriba: unzip p4505133_10105_LINUX.ZIP 4 Cambie el propietario del directorio 10.1.0.5; para ello, escriba: chown -R oracle.dba /oracle_cds/10.1.0.5 5 Ejecute el programa de instalación sólo desde el primer nodo.
Instalación del parche 10.1.0.5 para la base de datos 1 Inicie la sesión como oracle en el primer nodo. 2 Detenga los servicios de notificación de Oracle (ONS) antes de actualizar el patchset; para ello, escriba: onsctl stop 3 Inicie el programa de instalación de Oracle; para ello, escriba: /oracle_cds/10.1.0.5/Disk1/runInstaller 4 En la ventana de bienvenida, haga clic en Next (Siguiente).
6 Seleccione Cluster Configuration (Configuración del clúster) y, a continuación, haga clic en Next (Siguiente). 7 En la ventana TOPSNodes, haga clic en Select All Nodes (Seleccionar todos los nodos) y, a continuación, en Next (Siguiente). 8 En la ventana de bienvenida, seleccione Listener Configuration (Configuración del proceso de escucha) y haga clic en Next (Siguiente).
6 En la ventana Database Identification (Identificación de la base de datos), especifique un nombre de base de datos global (Global Database Name), como por ejemplo racdb, y haga clic en Next (Siguiente). 7 En la ventana Management Options (Opciones de administración), haga clic en Next (Siguiente).
19 Realice los pasos siguientes en cada nodo: a Para determinar qué instancia de base de datos existe en cada nodo, escriba lo siguiente: srvctl status database -d b Añada la entrada de la variable de entorno ORACLE_SID al perfil de usuario oracle; para ello, escriba: echo "export ORACLE_SID=racdbx" >> /home/oracle/.bash_profile source /home/oracle/.bash_profile donde racdbx corresponde al identificador de la instancia de base de datos asignada al nodo.
11 Cuando aparezca un mensaje que indique que el DBCA está listo para crear e iniciar la instancia de ASM, haga clic en OK (Aceptar). 12 En Available Disk Groups (Grupos de discos disponibles), haga clic en Create New (Crear nuevo). 13 Introduzca la información en la ventana Disk Group (Grupo de discos) para los archivos de base de datos y haga clic en OK (Aceptar).
25 Haga clic en Exit (Salir). Aparece un mensaje donde se indica que se está iniciando la base de datos del clúster en todos los nodos. 26 Realice los pasos siguientes en cada nodo: a Determine qué instancia de base de datos existe en cada nodo; para ello, escriba: srvctl status database -d b Añada la entrada de la variable de entorno ORACLE_SID al perfil de usuario oracle; para ello, escriba: echo "export ORACLE_SID=racdbx" >> /home/oracle/.bash_profile source /home/oracle/.
Para aumentar la expiración de tiempo de CSS: 1 Cierre la base de datos y CRS en todos los nodos excepto en uno. 2 En el nodo que está en funcionamiento, inicie la sesión como usuario root y escriba lo siguiente: /opt/oracle/product/10.1.0/crs_1/bin/crsctl set css misscount 120 3 Reinicie todos los nodos para que se aplique el valor de CSS. Para obtener más información, consulte la nota 294430.1 de Oracle MetaLink en la página web de Oracle Metalink (metalink.oracle.com).
Configuración de la red pública Asegúrese de que la red pública funciona correctamente y de que se ha asignado una dirección IP y un nombre de host al sistema. Configuración del almacenamiento de base de datos Configuración del almacenamiento de base de datos mediante el sistema de archivos ext3 Si dispone de almacenamiento adicional, realice los pasos siguientes: 1 Inicie la sesión como root.
Configuración del almacenamiento compartido mediante ASM Las particiones pueden configurarse como dispositivos sin formato o mediante el software ASMLib. Se presupone que se dispone de dos dispositivos de almacenamiento (sdb y sdc) para crear un grupo de discos para los archivos de base de datos, y de otro para la recuperación flashback y los archivos de registro, respectivamente.
c Etiquete las particiones creadas anteriormente como discos ASM. # /etc/init.d/oracleasm createdisk ASM1 /dev/emcpowerb1 Marking disk "/dev/emcpowerb1" as an ASM disk: [ OK ] # /etc/init.d/oracleasm createdisk ASM2 /dev/emcpowerc1 Marking disk "/dev/emcpowerc1" as an ASM disk: [ OK ] 2 Examine todos los discos ASM en los demás nodos. # /etc/init.d/oracleasm scandisks Scanning system for ASM disks: [ OK ] 3 En todos los nodos, verifique que todos los discos ASM estén visibles escribiendo: # /etc/init.
Instalación de la base de datos Oracle 10g Realice el procedimiento siguiente para instalar la base de datos Oracle 10g: 1 Inicie la sesión como root. 2 Monte el CD 1 Oracle Database 10g. 3 Inicie el sistema X Window; para ello, escriba: startx 4 Abra una ventana de terminal y escriba lo siguiente: xhost + 5 Inicie la sesión como oracle. 6 Inicie Oracle Universal Installer como usuario oracle.
Aplicación del patchset 10.1.0.5 1 Descargue el patchset 10.1.0.5 de Oracle MetaLink (p4505133_10105_LINUX.ZIP). 2 Copie el patchset en la carpeta /oracle_cds/10.1.0.5 en uno de los nodos. 3 Descomprima el patchset; para ello, escriba: unzip p4505133_10105_LINUX.ZIP 4 Cambie el propietario del directorio 10.1.0.5; para ello, escriba: chown -R oracle.dba /oracle_cds/10.1.0.5 Instalación del parche 10.1.0.5 para la base de datos 1 Inicie la sesión como oracle.
Configuración del proceso de escucha 1 Inicie la sesión como root. 2 Inicie el sistema X Window; para ello, escriba: startx 3 Abra una ventana de terminal y escriba lo siguiente: xhost + 4 Inicie la sesión como oracle. 5 Inicie el asistente para la configuración de red (NETCA) de Oracle; para ello, escriba: netca 6 Acepte la configuración predeterminada y haga clic en Next (Siguiente) en todas las pantallas para completar la configuración del proceso de escucha.
10 En la ventana Database File Locations (Ubicaciones de archivos de base de datos), haga clic en Next (Siguiente). 11 En la ventana Recovery Configuration (Configuración de la recuperación), haga clic en Browse (Examinar), seleccione el área de recuperación flashback que ha creado en “Configuración del almacenamiento de base de datos mediante el sistema de archivos ext3” (por ejemplo, /opt/oracle/recovery) y haga clic en Next (Siguiente).
Creación de la base de datos semilla mediante ASM Si ha configurado el almacenamiento mediante ASM, realice los pasos siguientes para crear una base de datos semilla con el DBCA de Oracle: 1 Inicie el DBCA escribiendo lo siguiente como usuario oracle: dbca & 2 En la ventana de bienvenida, haga clic en Next (Siguiente). 3 En la ventana Operations (Operaciones), haga clic en Create a Database (Crear base de datos) y, a continuación, en Next (Siguiente).
14 Introduzca la información en la ventana Disk Group (Grupo de discos) para los archivos de recuperación flashback y haga clic en OK (Aceptar). Introduzca un nombre para el grupo de discos que va a crearse, como por ejemplo flashbackDG, seleccione External Redundancy (Redundancia externa) y seleccione los discos que desea incluir en el grupo de discos (por ejemplo, /dev/raw/ASM2). Aparece una ventana donde se indica que la creación del grupo de discos está en curso.
Definición de la contraseña del usuario oracle Dell recomienda establecer una contraseña para el usuario oracle a fin de proteger el sistema. Complete los pasos siguientes para crear la contraseña del usuario oracle: 1 Inicie la sesión como root.
Configuración del almacenamiento compartido en el nodo nuevo Para ampliar una base de datos RAC existente para los nodos nuevos, configure el almacenamiento de los nodos nuevos de forma que el almacenamiento sea el mismo que en los nodos existentes. En esta sección se indican los procedimientos apropiados para ASM u OCFS2.
Configuración del almacenamiento compartido mediante ASMLib Para configurar el clúster mediante ASM, realice los pasos siguientes en el nuevo nodo: 1 Inicie la sesión como root. 2 Configure el kernel ASM; para ello, escriba: /etc/init.d/oracleasm configure Aparece el mensaje siguiente en la pantalla: Configuring the Oracle ASM library driver. This will configure the on-boot properties of the Oracle ASM library driver.
4 Verifique que todos los discos ASM estén visibles; para ello, escriba: /etc/init.d/oracleasm listdisks Aparecerá una lista de todos los discos ASM configurados.
c En el menú, haga clic en Cluster (Clúster)→ Configure Nodes (Configurar nodos). Si el clúster está fuera de línea, la consola lo iniciará. Aparece una ventana de mensaje que muestra esa información. Cierre la ventana de mensaje. Se abre la ventana Node Configuration (Configuración de nodo). d Para añadir un nodo al clúster, haga clic en Add (Agregar). Introduzca el nombre del nuevo nodo (que debe coincidir con el nombre del host) y la IP privada. Conserve el valor predeterminado del número de puerto.
11 En todos los nodos, excepto en el recién añadido, inicie CRS y la base de datos mediante los pasos siguientes: a Escriba lo siguiente como usuario root: /etc/init.d/init.crs start b Escriba lo siguiente como usuario oracle: srvctl start database -d Adición de un nodo nuevo al nivel de software de clúster 1 Inicie la sesión como oracle en uno de los nodos existentes. 2 Inicie Oracle Universal Installer desde el directorio /opt/oracle/product/10.1.
Adición de un nuevo nodo al nivel de base de datos 1 Inicie la sesión como oracle en uno de los nodos existentes. 2 Inicie Oracle Universal Installer desde el directorio /opt/oracle/product/10.1.0/db_1/oui/bin; para ello, escriba: addNode.sh 3 En la ventana de bienvenida, haga clic en Next (Siguiente). 4 En la ventana Specify Cluster Nodes for Node Addition (Especificar nodos de clúster para adición de nodos), haga clic en el nuevo nodo y, a continuación, en Next (Siguiente).
Adición de un nodo nuevo al nivel de instancia de base de datos 1 En uno de los nodos existentes, inicie el DBCA como usuario oracle; para ello, escriba: dbca 2 En la ventana de bienvenida, seleccione Oracle Real Application Cluster database (Base de datos Oracle Real Application Cluster) y haga clic en Next (Siguiente). 3 En la ventana Operations (Operaciones), haga clic en Instance Management (Administración de instancias) y, a continuación, en Next (Siguiente).
Eliminación de un nodo del clúster Eliminación de un nodo del nivel de instancia de base de datos Inicie la sesión como oracle en el primer nodoy realice el procedimiento siguiente: 1 Escriba lo siguiente: dbca 2 En la ventana de bienvenida, haga clic en Next (Siguiente). 3 En la ventana Operations (Operaciones), haga clic en Instance Management (Administración de instancias) y, a continuación, en Next (Siguiente).
Eliminación de un nodo del nivel de base de datos 1 Inicie la sesión como oracle en el nodo que va a eliminar. 2 Escriba el comando siguiente utilizando el nombre público del nodo que va a eliminar (por ejemplo, node3-pub): srvctl stop nodeapps -n node3-pub 3 Inicie la sesión como root en el nodo que va a eliminar. 4 Escriba el comando siguiente utilizando el nombre público del nodo que va a eliminar (por ejemplo, node3-pub): /opt/oracle/product/10.1.0/db_1/install/rootdeletenode.
d Desactive el servicio O2CB; para ello, escriba: /etc/init.d/o2cb disable e Borre la entrada OCFS2 del archivo /etc/fstab. f Elimine el archivo de configuración de OCFS2; para ello, escriba: rm –f /etc/ocfs2/cluster.
Reinstalación del software AVISO: la reinstalación del software borra todos los datos de las unidades de disco duro. AVISO: debe desconectar todos los dispositivos de almacenamiento externos del sistema antes de reinstalar el software. AVISO: Dell recomienda realizar copias de seguridad periódicamente de la base de datos y de cada uno de los nodos para no perder datos valiosos. Reinstale el software de nodos sólo si no tiene ninguna otra opción.
Tabla 1-6. 398 Versiones de software admitidas Componente de software Versiones admitidas Actualización trimestral 3 del sistema operativo Red Hat Enterprise Linux AS (versión 4) para Intel x86 2.6.9-34.EL Patchset de Oracle 10.1.0.5 OCFS2 ocfs2-2.6.9-34.EL-1.2.2-1; ocfs2-2.6.9-34.ELhugemem1.2.2-1; ocfs2-2.6.9-34.ELsmp-1.2.2-1 PowerPath para Linux 4.5.1 Controlador 2340 HBA Qlogic 8.01.02-d4 Controlador 2342 HBA Qlogic 8.01.02-d4 Controlador 2360 HBA Qlogic 8.01.
Configuración del reinicio automático para un sistema operativo bloqueado Realice los pasos siguientes para instalar el software de sistema administrado para Red Hat Enterprise Linux: 1 Inicie una sesión con privilegios de administrador en el sistema en el que desea instalar los componentes de sistema administrados. 2 Salga de todos los programas de aplicación abiertos y desactive todos los programas de detección de virus.
10 Haga clic en Express Setup (Instalación rápida). 11 Lea la información de la pantalla Installation Summary (Resumen de la instalación) y haga clic en Next (Siguiente). El programa de configuración instala automáticamente el software del sistema administrado para la configuración de hardware. 12 Una vez finalizada la instalación, haga clic en Finish (Finalizar).
Tabla 1-7.
Solución de problemas En la tabla 1-8 se indican las acciones recomendadas para los problemas que pueden surgir al implantar y utilizar el software Red Hat Enterprise Linux y Oracle. Tabla 1-8. Solución de problemas Categoría Problema/síntoma Causa Acción correctiva recomendada Rendimiento y estabilidad Red Hat Enterprise Linux presenta un bajo rendimiento e inestabilidad. Uso excesivo de espacio de intercambio. El área global del sistema (SGA) de Oracle sobrepasa el tamaño recomendado.
Tabla 1-8. Solución de problemas (continuación) Categoría Problema/síntoma Causa Acción correctiva recomendada Asistente para la configuración de red (NETCA) NETCA falla, lo cual produce errores de creación de base de datos. La red pública, el nombre de host o la dirección IP virtual no aparecen en el archivo /etc/hosts.equiv. Antes de iniciar netca, asegúrese de que se ha asignado un nombre de host a la red pública y de que las direcciones IP pública y virtual aparecen en el archivo /etc/hosts.
Tabla 1-8. Solución de problemas (continuación) Categoría Problema/síntoma Causa Acción correctiva recomendada CRS Cuando se ejecuta root.sh, no se puede iniciar CRS. No se puede acceder al archivo OCR ni al disco de votación. Corrija el problema de E/S e intente volver a iniciar el servicio reiniciando el nodo o ejecutando root.sh en /opt/oracle/product/10.1.0/crs_1/. CRS Cuando se ejecuta root.sh tras efectuar la reinstalación, no se puede iniciar CRS.
Tabla 1-8. Solución de problemas (continuación) Categoría Problema/síntoma Causa CRS El nodo se reinicia constantemente. El nodo no tiene acceso al disco de quórum en el almacenamiento compartido. Acción correctiva recomendada 1 Inicie Linux en modo de un solo usuario. 2 Escriba lo siguiente: /etc/init.d/init.crs disable 3 Verifique que el disco de quórum esté disponible para lectura y escritura.
Tabla 1-8. Solución de problemas (continuación) Categoría Problema/síntoma Instalación de software Cuando se conecta No se han establecido Escriba lo siguiente en todos los nodos remotos a la base de datos los permisos necesarios como usuario root: chmod 6751 como un usuario en el nodo remoto. $ORACLE_HOME que no es oracle, aparecen los mensajes de error: ORA01034: ORACLE not available and Linux Error 13: Permission denied.
Obtención de ayuda Asistencia de Dell Para obtener información detallada sobre el uso del sistema, consulte la documentación incluida con los componentes del sistema. Para obtener documentos técnicos, configuraciones admitidas por Dell e información general, visite la página web de Dell y Oracle (www.dell.com/oracle).
Guía de implantación
Índice A añadir y eliminar nodos, 386 ASM configurar almacenamiento de base de datos, 378 B base de datos Oracle 10g configuración de un solo nodo, 376 instalar, 367 instalar (un solo nodo), 380 base de datos semilla crear, 371, 382 verificar, 375, 383 bonding, 357 C clúster ejemplo de conexiones de hardware Fibre Channel, 353 configuración de ASM, 363 configuración de OCFS, 361 configuración del clúster Fibre Channel, 352 configuración del proceso de escucha, 370, 382 configuraciones de hardware y softw
Índice E ejemplos conexiones de hardware para un clúster Fibre Channel, 353 eliminar un nodo, 394 instalar (continuación) base de datos Oracle 10g (un solo nodo), 380 CRS, 366 mediante el CD de implantación de Dell, 350 Oracle RAC 10g, 366 Red Hat Enterprise Linux, 350 red privada configurar, 356-357 determinar la interfaz, 400 red pública configurar, 356 reinstalar software, 397 F Fibre Channel, configuración del clúster, 352 H hardware interconexiones Fibre Channel, 354 requisitos mínimos para c