Dell™ PowerEdge™ Systems Oracle® Database on Microsoft® Windows Server® x64 Storage and Network Guide Version 1.1 w w w. d e l l . c o m | s u p p o r t . d e l l .
Notes, Cautions, and Warnings NOTE: A NOTE indicates important information that helps you make better use of your computer. CAUTION: A CAUTION indicates potential damage to hardware or loss of data if instructions are not followed. WARNING: A WARNING indicates a potential for property damage, personal injury, or death. ____________________ Information in this document is subject to change without notice. © 2009 Dell Inc. All rights reserved.
Contents 1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . Required Documentation for Deploying the Dell™ Oracle Database . . . . . . . . . . . . . . . . 7 . . . . . . . . . . . 8 . . . . . . . . . . . . . . . . . . . . . . . . 8 Terminology Used in this Document. Getting Help Dell Support . . . . . . . . . . . . . . . . . . . . . . Oracle Support 2 . . . . . . . . . . . . . . . . . . . . Fibre Channel Cluster Setup Before You Begin 9 11 . . . . . . . . . . . . . . . . . . .
iSCSI Cluster Setup for the Dell™ PowerVault™ MD3000i and PowerVault MD1000 Expansion Enclosures . . . . . . . . . . . . . . . 19 . . . . . . . 21 . . . . . . . . . . . . . . 21 Setting Up iSCSI Cluster with Dell PowerVault MD3000i Storage System and Dell PowerVault MD1000 Expansion Enclosures . . . . . . . . . . . Task 1: Hardware Setup. Task 2: Installing the Host-based Software Needed for Storage . . . . . . . . . . . 23 . . . . . . . . . . 24 . . . . . . . . . . . . . . .
6 Configuring Storage and Networking for Oracle ® RAC Database (10gR2/11gR1) . . . . . . . . . . . . . Configuring the Public and Private Networks Configuring and Teaming the Private Network . . . . . . . 33 . . . . . 33 . . . . . . . . . . . 34 Configuring NIC Teaming for Your Private Network Adapters . . . . . . . . . . Configuring the IP Addresses for Your Public and Private Network Adapters Installing the Host-Based Software Needed for Storage . . . . . . . . . 35 . . . . 37 . . . . . . .
Index 6 Preparing the Database Disk and Flash Recovery Area for Database Storage With OCFS . . . . . . . . . . . . . . . . . 44 Preparing the Database Disk and Flash Recovery Area for Database Storage With ASM . . . . . . . . . . . . . . . . . 45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Overview The Storage and Networking Guide for Oracle® Database on Microsoft® Windows® applies to: • Oracle® Database 10g R2 running on Microsoft Windows Server® 2003 R2, Standard/Enterprise x64 Edition or Windows Server 2008 Enterprise/Standard x64 Edition. • Oracle Database 11g R1 running on Microsoft Windows Server 2003 R2, Standard/Enterprise x64 Edition or Windows Server 2008 Enterprise/Standard x64 Edition.
• Oracle Database on Microsoft Windows Server x64 Database Setup and Installation Guide — Describes how to install and configure the Oracle database. • Oracle Database on Microsoft Windows Server x64 Troubleshooting Guide — Describes how to troubleshoot and resolve errors encountered during the installation procedures described in the previous modules. NOTE: All modules provide information on how to receive technical assistance from Dell.
• For Dell technical support for your hardware and operating system software and to download the latest updates for your system, visit the Dell Support website at support.dell.com. Information about contacting Dell is provided in the Dell PowerEdge Systems Oracle Database on Microsoft Windows Server x64 Operating System and Hardware Installation Guide and Dell PowerEdge Systems Oracle Database on Microsoft Windows Server x64 Troubleshooting Guide of your system.
Overview
Fibre Channel Cluster Setup WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see the Dell Regulatory Compliance website at www.dell.com/regulatory_compliance. After a Dell™ Managed Services representative completes the setup of your Fibre Channel cluster, verify the hardware connections and the hardware and software configurations as described in this section.
Figure 2-1. Hardware Connections for a SAN-attached Fibre Channel Cluster. Public Network Gb Ethernet switches (private network) LAN/WAN Dell/EMC Fibre Channel switches (SAN) PowerEdge systems (Oracle database) CAT 5e/6 (copper Gigabit NIC) CAT 5e/6 (copper Gigabit (NIC) Fiber optic cables Table 2-1.
Before You Begin Verify that the following tasks have been completed for your cluster: • All hardware is installed in the rack. • All hardware interconnections are configured. • All virtual disks/logical unit numbers (LUNs), RAID groups, and storage groups are created on the storage system. • Storage groups are assigned to the cluster nodes. CAUTION: Before you perform the procedures in the following sections, ensure that the system hardware and cable connections are installed correctly.
Figure 2-2. Cabling in a Dell/EMC SAN-Attached Fibre Channel Cluster Cluster node 1 Cluster node 2 sw0 sw1 CX4-960 storage system Use the following procedure to configure your Oracle cluster storage system in a four-port, SAN-attached configuration. 1 Connect one optical cable from SP-A port 0 to Fibre Channel switch 0. 2 Connect one optical cable from SP-A port 1 to Fibre Channel switch 1. 3 Connect one optical cable from SP-B port 0 to Fibre Channel switch 1.
SAS Cluster Setup for the Dell™ PowerVault™ MD3000 WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see the Dell Regulatory Compliance website at www.dell.com/regulatory_compliance. This section provides information and procedures to configure your Dell PowerEdge™ systems and PowerVault MD3000 hardware and software to function in an Oracle® Real Application Cluster (RAC) environment.
Figure 3-1. Cabling the Serial-Attached SCSI (SAS) Cluster and Dell PowerVault MD3000 Public Network LAN/WAN PowerEdge systems PowerVault MD3000 Storage System CAT 5e/6 (copper Gigabit NIC) CAT 5e/6 (copper Gigabit (NIC) Fiber optic cables Table 3-1. SAS Cluster Hardware Interconnections Cluster Component Connections PowerEdge system node • One CAT 5e/6 cable from public NIC to the local area network (LAN).
Table 3-1. SAS Cluster Hardware Interconnections (continued) Cluster Component Connections PowerVault MD3000 • Two CAT 5e/6 cables connected to a LAN (one from each storage processor module). • Two SAS connections to each PowerEdge system node using a SAS 5/E controller. See "Cabling Your SAS Storage System" on page 17. Gigabit Ethernet switch • One CAT 5e/6 connection to the private Gigabit NIC on each PowerEdge system. • One CAT 5e/6 connection to the other Gigabit Ethernet switch.
3 Connect one SAS cable from a port of the SAS controller of node 2 to the In-1 port of RAID controller 0 in the MD3000 RAID enclosure. 4 Connect one SAS cable from a port of the other SAS controller of node 2 to the In-1 port of RAID controller 1 in the MD3000 RAID enclosure. Figure 3-2.
iSCSI Cluster Setup for the Dell™ PowerVault™ MD3000i and PowerVault MD1000 Expansion Enclosures WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see the Dell Regulatory Compliance website at www.dell.com/regulatory_compliance.
Table 4-1. iSCSI Hardware Interconnections Cluster Component Connections One PowerEdge system node • One CAT 5e/6 cable from public NIC to the local area network (LAN). • One CAT 5e/6 cable from private Gigabit NIC to Gigabit Ethernet switch (private network). • One CAT 5e/6 cable from redundant private Gigabit NIC to redundant Gigabit Ethernet switch (private network). NOTE: For additional information on Dell PoweVault MD3000i system see your Dell PowerVault MD3000i SetUp documentation.
Setting Up iSCSI Cluster with Dell PowerVault MD3000i Storage System and Dell PowerVault MD1000 Expansion Enclosures Task 1: Hardware Setup Direct-attached iSCSI clusters are limited to two nodes only. Figure 4-1.
4 Connect one CAT 5e/6 cable from the other port (iSCSI HBA or NIC) of node 2 to the In-1 port of RAID controller 1 in the Dell PowerVault MD3000i storage enclosure. 5 Connect two SAS cables from the two MD3000 out ports to the two In ports of the first Dell PowerVault MD1000 expansion enclosure (Optional). 6 Connect two SAS cables from the two MD1000 out ports to the In-0 ports of the second Dell PowerVault MD1000 expansion enclosure (Optional).
3 Connect one CAT 5e/6 cable from a port (iSCSI HBA or NIC) of node 2 to the port of network switch 1. 4 Connect one CAT 5e/6 cable from a port (iSCSI HBA or NIC) of node 2 to the port of network switch 2. 5 Connect one CAT 5e/6 cable from a port of switch 1 to the In-0 port of RAID controller 0 in the Dell PowerVault MD3000i storage enclosure. 6 Connect one CAT 5e/6 cable from the other port of switch 1 to the In-0 port of RAID controller 1 in the Dell PowerVault MD3000i storage enclosure.
Task 3: Verifying and Upgrading the Firmware • Discover the host server’s direct-attached storage using the Modular Disk Storage Manager software that is installed on the host server. • Verify that the firmware for the following storage components is at the minimum required version. Refer to the Solutions Deliverable List (SDL) for the firmware version requirements.
iSCSI Cluster Setup for the Dell™ EqualLogic PS Series Storage Systems WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see the Dell Regulatory Compliance website at www.dell.com/regulatory_compliance. EqualLogic Terminology EqualLogic PS series storage arrays include storage virtualization technology.
that two Gigabit Ethernet switches are used because in the event of a switch failure in a single ethernet switch environment, all hosts will lose access to the storage until the switch is physically replaced and the configuration restored. For such configuration, there should be multiple ports with link aggregation providing the inter-switch, or trunk, connection.
Table 5-1 describes the cable colors and their significance. The PS5000XV storage arrays provide the physical storage capacity for the Oracle RAC database. Figure 5-2.
As illustrated in Figure 5-2, the group named oracle-group includes three PS5000XV members: • oracle-member01 • oracle-member02 • oraclemember03 When a member is initialized, it can be configured with RAID 10, RAID 5, or RAID 50. For more information on how to initialize an EqualLogic array, see the Dell EqualLogic User's Guide. A PS Series storage group can be segregated into multiple tiers or pools. Tiered storage provides administrators with greater control over how disk resources are allocated.
Table 5-2.
6 Highlight Performance Options, then click Properties. The Performance Options window is displayed. 7 In the Performance Options window, highlight Flow Control, and set its value to Rx & Tx Enabled. 8 Repeat step 2 to step 7 for all other network interfaces used for iSCSI traffic. Configuring Host Access to Volumes Installing and Configuring Dell EqualLogic Host Integration Tool (HIT) Kit 1 Download the HIT tool kit version 3.1.2 on your database server. 2 Double click Setup64.
Installing Microsoft iSCSI Initiator 1 Click Start→ Settings→ Control Panel→ Add or Remove Programs. 2 Select Microsoft iSCSI Initiator, click Remove. This step is performed to remove the initiator 2.0.7 which is packaged with the current HIT 3.1.2. 3 On the Software Update Removal Wizard window, click Next. 4 On the Software Update Removal Wizard window, click Finish. 5 Once server is back up, download the Microsoft iSCSI initiator 2.0.8 on your database server. 6 Double click Initiator-2.
5 On the Advanced Settings window General tab, perform the following configurations: a Choose Microsoft iSCSI Initiator by the Local adapter drop-down menu. b Choose an iSCSI initiator IP address by the Source IP drop-down menu. c Choose EqualLogic group IP address by the Target Portal drop-down menu. d Select the CHAP logon information check box. e Enter the CHAP user name defined in EqualLogic storage, by the User name box.
Configuring Storage and Networking for Oracle® RAC Database (10gR2/11gR1) This section provides information about network and storage configuration. • Configuring the public and private networks. • Verifying the storage configuration. • Configuring the shared storage for Oracle Clusterware and the Oracle Database. NOTE: Oracle RAC 10g R2/11g R1 is a complex database configuration that requires an ordered list of procedures.
Table 6-1. NIC Port Assignments NIC Port Three Ports Available Four Ports Available 1 Public IP and virtual IP Public IP 2 Private IP (NIC team) Private IP (NIC team) 3 Private IP (NIC team) Private IP (NIC team) 4 NA Virtual IP Configuring and Teaming the Private Network Before you deploy the cluster, assign a private IP address and host name to each cluster node. This procedure ensures that the nodes can communicate with each other through the private interface.
Configuring NIC Teaming for Your Private Network Adapters NOTE: TCP Offload Engine (TOE) functionality of a TOE-capable NIC is not supported in this solution. 1 On node 1, identify two network adapters that will be used for NIC teaming. 2 Connect an Ethernet cable from each selected network adapter to the private network switch. 3 If node 1 is configured with Broadcom NICs, go to step 4.
4 If node 1 is configured with Broadcom NICs, configure NIC teaming by performing the following steps. If not go to step 5. a Click Start→ Programs→ Broadcom→ Broadcom Advanced Control Suite 3. The Broadcom Advanced Control Suite 3 window is displayed. b Highlight Team Management, and click Teams and select Create a Team. The Broadcom Teaming Wizard window is displayed. c Click Next. d In the Enter the name for the team field, type Private and click Next.
Configuring the IP Addresses for Your Public and Private Network Adapters NOTE: The TOE functionality of TOE-capable NIC is not supported in this solution. 1 Update the adapter’s network interface name, if required. Otherwise, go to step 3. a On node 1, click Start and navigate to Settings→ Control Panel→ Network Connections. b On the Network Connections window, right-click the public network adapter you want to rename, and select Rename.
NOTE: Private NIC team does not require a default gateway address and DNS server entry. 3 Ensure that the public and private network adapters appear in the appropriate order for access by network services. a On the Windows desktop, click Start→ Settings→ Control Panel→ Network Connections. b On the Network Connections window, click Advanced and select Advanced Settings. c Select the Adapter and Bindings tab.
NOTE: Registering the private IP addresses with the DNS server is not required because the private network IP addresses are not accessible from the public network. 5 Repeat step 1 to step 4 on the remaining nodes. 6 Ensure that the cluster nodes can communicate with the public and private networks. a On node 1, open a command prompt window.
Verifying the Storage Assignment to the Nodes 1 On the Windows desktop, right-click My Computer and select Manage. 2 On the Computer Management window, click Device Manager. 3 Expand Disk drives. 4 Under Disk drives, ensure that four small computer system interface (SCSI) disk devices appear for each LUN/virtual disk assigned in the storage. 5 Expand Storage and click Disk Management. If the Welcome to the Initialize and Convert Disk Wizard is displayed, perform step a through step d.
Installing PowerPath® for Dell/EMC Systems 1 On node 1, install EMC® PowerPath®. NOTE: For more information, see the EMC PowerPath documentation that came with your Dell/EMC storage system. 2 On completion of the installation procedure, restart your system. 3 Repeat step 1 and step 2 on the remaining nodes. Installing Multi-Path driver software for MD3000/MD3000i 1 On node 1, install Multi-Path driver software from the Dell PowerVault MD3000 or Dell MD3000i Resource CD.
Preparing the Disks for Oracle Clusterware, Database, and Backup This section provides information for creating the logical drives for the following disks: • Oracle Cluster Registry disk (OCR) — Contains the cluster configuration information • Voting disk — Provides arbitration between the cluster nodes when the private network or attached storage is unavailable to one or more nodes • Data and backup disks — Provide storage areas for creating the database (data disk) and saving the backup and log data
Preparing the OCR and Voting Disks for Clusterware 1 On the Windows desktop, right-click My Computer and select Manage. 2 Expand Storage and click Disk Management. The storage disk that you initialized in the "Verifying Multi-Path Driver Functionality" on page 41 is displayed as Unallocated. 3 Right-click the partition area of the first shared disks assigned to the cluster nodes and select New Partition. The Welcome to the New Partition wizard is displayed. 4 Click Next.
g Click Finish. h Repeat step a through step g to create an additional OCR disk. 10 Create a logical drive for the Voting Disk. a On the partition area of the disk identified for the OCR and voting disk (2 GB LUN/virtual disk), right-click the free space and select New Logical Drive. The Welcome to the New Partition wizard is displayed. b Click Next. c In the Select Partition Type window, select Logical drive and click Next.
1 On node 1, create one logical drive for the Database. a Locate the disk that is assigned for the Oracle Database. b On the disk partition area, right-click the free space and select New Logical Drive. The Welcome to the New Partition wizard is displayed. c Click Next. d On the Select Partition Type window, select Logical drive and click Next. e On the Specify Partition Size window in the Partition size in MB field, type the appropriate size and click Next.
1 Create one logical drive for the Database. a Locate the disk that is assigned for the Oracle database. b On the disk partition area, right-click the free space and select New Logical Drive. The Welcome to the New Partition wizard is displayed. c Click Next. d On the Select Partition Type window, select Logical drive and click Next. e On the Specify Partition Size window, type the appropriate size in the Partition size in MB field and click Next.
Index A ASM, 44 B bonded pair, 34 C cable CAT 5e/6, 12 optical, 12 SAS cable, 17 D PowerPath, 41 EqualLogic Terms Group, 25 Member, 25 Pool, 25 Volume, 25 Ethernet switch, 12 F Flow Control, 29 G Gigabit Ethernet switch, 12 Gigabit NIC, 12 Dell/EMC Fibre Channel, 12 disks Data and backup disks, 42 Oracle Cluster Registry disk, 42 Redundant Voting Disk, 44 Voting disk, 42 DNS, 33 H HBA, 12 Help Dell Support, 8 Oracle Support, 9 E EMC Naviagent, 39 Index 47
I R IP address public IP address, 33 virtual IP address, 33 Resource CD, 23 iSCSI HBA, 21 S SAN, 13 SAS clusters, 17 J Jumbo frame, 29 SDL, 24 Jumbo Packet, 29 T TCP Offload Engine, 35 L LUNs, 13 V Virtual internet protocol, 39 M Master node, 23 Microsoft iSCSI Initiator, 31 Modular Disk Storage Manager, 24 Multi-Path, 23 O OCFS, 44 P PowerConnect switch, 25 48 Index
Dell™ PowerEdge™ 系统 Microsoft® Windows Server® x64 上的 Oracle® 数据库 存储和网络指南 1.1 版 w w w. d e l l . c o m | s u p p o r t . d e l l .
注、小心和警告 注: “注”表示可以帮助您更好地使用计算机的重要信息。 小心:“小心”表示如果不遵循说明,就有可能损坏硬件或导致数据丢失。 警告: “警告”表示可能会造成财产损失、人身伤害甚至死亡。 ____________________ 本说明文件中的信息如有更改,恕不另行通知。 © 2009 Dell Inc. 版权所有,翻印必究。 未经 Dell Inc. 书面许可,严禁以任何形式复制这些材料。 本文中使用的商标:Dell、DELL 徽标、PowerEdge 和 PowerVault 是 Dell Inc.
目录 1 概述 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 部署 Dell™ Oracle 数据库需要的说明文件 . . . . . . 55 . . . . . . . . . . . . . 56 . . . . . . . . . . . . . . . . . . . . . . . . 56 本说明文件中使用的术语: . 获得帮助 . Dell 支持 . . . . . . . . . . . . . . . . . . . . . . Oracle 支持 . 2 . . . . . . . . . . . . . . . . . . . . 光纤信道群集设置 准备工作 . 57 59 . . . . . . . . . . . . . . . . . . . . . . . . 61 . . . . . . . . . . Dell™ PowerVault™ MD3000 的 SAS 群集设置 . . . . . . . . . . . . . . . . . . . . . .
4 Dell™ PowerVault™ MD3000i 和 PowerVault MD1000 扩展的 iSCSI 群集设置 . . . . . . . . . . . . . . . . . . . . . . . . . 设置带有 Dell PowerVault MD3000i 存储系统和 Dell PowerVault MD1000 扩展盘柜的 iSCSI 群集 . 任务 1:硬件设置 . . 69 . . . . . . . . . . . . . . . . . 69 任务 2:安装存储设备所需的基于 主机的软件 . . . . . . . . . . . . . . . . . . . . . 72 . . . . . . . . . . . . 72 . . . . . . . . . . . . . . . . . . . . 72 任务 3:验证和升级固件 . 安装后任务 . 5 用于 Dell™ EqualLogic PS 系列存储系统的 iSCSI 群集设置 EqualLogic 术语 . . . . . . 73 . . . . . . . .
6 配置 Oracle ® RAC 数据库 (10gR2/11gR1) 的存储和网络 配置公用和专用网络 . . . . . . . . . . 81 . . . . . . . . . . . . . . . . . 81 配置专用网络并组队 . . . . . . . . . . . . . . . 为专用网络适配器配置 NIC 组队 . . . . . . . . 82 为公用网络适配器和专用网络适 配器配置 IP 地址 . . . . . . . . . . . . . . . . . 85 安装存储设备所需的基于主机的软件 . . . . . . . . 87 . . . . . . . . . . . . . . . . . 87 验证节点的存储分配 . 为存储设备安装多路径软件 . . . . . . . . . . . . . . 为 Dell/EMC 系统安装 PowerPath® . . . . . . . . 88 88 为 MD3000/MD3000i 安装多路径驱动程 序软件 . . . . . . . . . . . . . . .
目录
概述 《Storage and Networking Guide for Oracle® Database on Microsoft® Windows®》(Microsoft® Windows® 上的 Oracle® 数据库 - 存储和网络 指南)适用于: • 在 Microsoft Windows Server® 2003 R2 x64 标准版 / 企业版或 Windows Server 2008 x64 标准版 / 企业版上运行的 Oracle® Database 10g R2。 • 在 Microsoft Windows Server 2003 R2 x64 标准版 / 企业版或 Windows Server 2008 x64 标准版 / 企业版上运行的 Oracle Database 11g R1。 部署 Dell™ Oracle 数据库需要的说明文件 安装 Dell|Oracle 数据库需要的说明文件: • 《Oracle Database on Microsoft Windows Server x64 Operating System and Hardware Installation
本说明文件中使用的术语: 本说明文件中使用了逻辑单元号码 (LUN) 和虚拟磁盘两个术语。这两个术 语是同义词,可互换使用。术语 LUN 通常在 Dell/EMC 光纤信道存储系统 环境中使用,而虚拟磁盘通常在 Dell PowerVault™ SAS(Dell MD3000i 和 带有 MD1000 扩展的 Dell MD3000i)存储环境中使用。 获得帮助 本节介绍有关如何联系 Dell 或 Oracle 以获取白皮书、支持的配置、培训、 技术支持和一般信息的信息。 Dell 支持 56 • 有关使用系统的详情,请参阅系统组件附带的说明文件。 • 有关白皮书、Dell 支持的配置和一般信息,请参阅 Dell|Oracle Tested and Validated Configurations(经 Dell|Oracle 测试和验证的配置) Web 站点 dell.com/oracle。 • 要获得硬件和操作系统软件的 Dell 技术支持以及下载最新的系统 更新,请访问 Dell 支持 Web 站点 support.dell.
Oracle 支持 • 有关 Oracle 软件和应用程序群集件的培训信息以及 Oracle 联系信息, 请参阅 Oracle Web 站点 oracle.com 或参阅 Oracle 说明文件。 • 在 My Oracle Support Web 站点 metalink.oracle.com 上可获取技术支 持、软件下载以及其它技术信息。 • 有关安装和配置 Oracle 的信息,请参阅《Dell PowerEdge Systems Oracle Database on Microsoft Windows Server x64 Operating System and Hardware Installation Guide》(Microsoft Windows Server x64 上的 Dell PowerEdge 系统 Oracle 数据库 - 操作系统和硬件安装指南) (可从 Dell 支持 Web 站点 support.dell.
概述
光纤信道群集设置 警告: 开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。 有关其它最佳实践信息,请参阅 Dell Regulatory Compliance (Dell 管制 标准) Web 站点 www.dell.
图 2-1. SAN 连接的光纤信道群集的硬件连接。 公用网络 千兆位以太网交换机 (专用网络) LAN/WAN Dell/EMC 光纤信道 交换机 (SAN) PowerEdge 系统 (Oracle 数据库) CAT 5e/6 (铜质千兆位 NIC) CAT 5e/6 (铜质千兆位 NIC) 光缆 表 2-1.
准备工作 验证是否已为群集完成以下任务: • 所有硬件均已安装在机架中。 • 所有硬件互连均已配置。 • 已在存储系统中创建所有虚拟磁盘 / 逻辑单元号码 (LUN)、 RAID 组和存储组。 • 存储组已分配给群集节点。 小心:在执行以下各节中的步骤之前,请确保正确安装系统硬件和 连接电缆。 Dell/EMC 光纤信道存储设备布线 您可以在具有四个端口的存储区域网络 (SAN) 连接配置中配置 Oracle® 群集存储系统,具体取决于您的需要。有关这两种配置的信息,请参阅以 下步骤。 图 2-2 显示了设置 SAN 连接的光纤信道群集时使用的硬件连接。 光纤信道群集设置 61
图 2-2.
Dell™ PowerVault™ MD3000 的 SAS 群集设置 警告: 开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。 有关其它最佳实践信息,请参阅 Dell Regulatory Compliance (Dell 管制 标准) Web 站点 www.dell.
图 3-1. 串行连接 SCSI (SAS) 群集和 Dell PowerVault MD3000 的布线 公用网络 LAN/WAN PowerEdge 系统 PowerVault MD3000 存储系统 CAT 5e/6 (铜质千兆位 NIC) CAT 5e/6 (铜质千兆位 NIC) 光缆 表 3-1.
表 3-1.
SAS 存储系统布线 由于 SAS 群集只能安装在直接连接的群集中,因此其仅限于两个节点。 要在直接连接的配置(请参阅图 3-2)中配置节点,请完成以下步骤: 1 使用一根 SAS 电缆从节点 1 的 SAS 控制器端口连接至 MD3000 RAID 盘柜中 RAID 控制器 0 的 In-0 端口。 2 使用一根 SAS 电缆从节点 1 的另一个 SAS 控制器端口连接至 MD3000 RAID 盘柜中 RAID 控制器 1 的 In-0 端口。 3 使用一根 SAS 电缆从节点 2 的 SAS 控制器端口连接至 MD3000 RAID 盘柜中 RAID 控制器 0 的 In-1 端口。 4 使用一根 SAS 电缆从节点 2 的另一个 SAS 控制器端口连接至 MD3000 RAID 盘柜中 RAID 控制器 1 的 In-1 端口。 图 3-2.
Dell™ PowerVault™ MD3000i 和 PowerVault MD1000 扩展的 iSCSI 群集设置 警告: 开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。 有关其它最佳实践信息,请参阅 Dell Regulatory Compliance (Dell 管制 标准) Web 站点 www.dell.com/regulatory_compliance。 本节提供有关配置 Dell™ PowerEdge™ 系统以及 Dell PowerVault MD3000i 软硬件的信息和过程,使其在 Oracle® Real Application Cluster (RAC) 环境 中正常工作。 使用 Dell PowerVault MD3000i 支持值表中包含的“支持的配置”图(可从 位于 support.dell.
表 4-1.
设置带有 Dell PowerVault MD3000i 存储系统和 Dell PowerVault MD1000 扩展盘柜的 iSCSI 群集 任务 1:硬件设置 直接连接的 iSCSI 群集仅限于两个节点。 图 4-1.
4 使用一根 CAT 5e/6 电缆从节点 2 的另一个端口(iSCSI HBA 或 NIC) 连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 1 的 In-1 端口。 5 使用两根 SAS 电缆从两个 MD3000 输出端口连接至第一个 Dell PowerVault MD1000 扩展盘柜的两个输入端口(可选)。 6 使用两根 SAS 电缆从两个 MD1000 输出端口连接至第二个 Dell PowerVault MD1000 扩展盘柜的 In-0 端口(可选)。 注: 有关配置 PowerVault MD1000 扩展盘柜的信息,请参阅 Dell PowerVault MD3000 存储系统说明文件(可从位于 support.dell.com 的 Dell 支持 Web 站点 获取)。 交换式 iSCSI 群集最多可以支持八个节点。 图 4-2.
要在交换式配置(请参阅图 4-2)中配置节点,请完成以下步骤: 1 使用一根 CAT 5e/6 电缆从节点 1 的端口(iSCSI HBA 或 NIC)连接至 网络交换机 1 的端口。 2 使用一根 CAT 5e/6 电缆从节点 1 的端口(iSCSI HBA 或 NIC)连接至 网络交换机 2 的端口。 3 使用一根 CAT 5e/6 电缆从节点 2 的端口(iSCSI HBA 或 NIC)连接至 网络交换机 1 的端口。 4 使用一根 CAT 5e/6 电缆从节点 2 的端口(iSCSI HBA 或 NIC)连接至 网络交换机 2 的端口。 5 使用一根 CAT 5e/6 电缆从交换机 1 的一个端口连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 0 的 In-0 端口。 6 使用一根 CAT 5e/6 电缆从交换机 1 的另一个端口连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 1 的 In-0 端口。 7 使用一根 CAT 5e/6 电缆从交换机 2 的一个端口连接至 Dell PowerVa
任务 2:安装存储设备所需的基于主机的软件 要安装用于 Dell PowerVault MD3000i 存储系统的基于主机的存储软件, 请使用 MD3000i 存储系统附带的 Dell PowerVault Resource CD 软件。 请遵循 Dell PowerVault MD3000i 存储系统附带的 Dell 说明文件中的步骤 进行操作,在主节点上安装 模块化磁盘存储管理器软件,在其余节点上 安装多路径 (MPIO) 软件。 Dell PowerVault MD3000i 存储子系统需要 Microsoft® iSCSI 软件启动程序。 Microsoft iSCSI 软件启动程序可从 www.microsoft.
用于 Dell™ EqualLogic PS 系列存 储系统的 iSCSI 群集设置 警告: 开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。 有关其它最佳实践信息,请参阅 Dell Regulatory Compliance (Dell 管制 标准) Web 站点 www.dell.
图 5-1. 推荐的网络配置 主干链路 用于 iSCSI 存储区域网络的 Dell PowerConnect 54xx 千兆 位以太网交换机 Dell EqualLogic PS5000XV iSCSI 存 储阵列的罕见视图 操作面板 iSCSI 存储区域网络 电源设备和 冷却模块 1 控制模块 1 控制模块 0 电源设备和 冷却模块 0 图 5-2 是带三个 PS5000XV 阵列的 Oracle RAC 配置示例的体系结构概览。 表 5-1.
图 5-2.
如图 5-2 所示,名为 oracle-group 的组包括三个 PS5000XV 成员: • oracle-member01 • oracle-member02 • oracle-member03 初始化其中某个成员后,可以为其配置 RAID 10、RAID 5 或 RAID 50。 有关如何初始化 EqualLogic 阵列的详细信息,请参阅《Dell EqualLogic User's Guide》(Dell EqualLogic 用户指南)。 一个 PS 系列存储组可以分到多个层或池中。分层存储可让管理员更好地控 制磁盘资源的分配。每次仅可将一个成员分配到一个池。将成员分配到池以 及在不同池之间移动成员很容易,而且不会影响数据的可用性。池可以根据 不同标准(如磁盘类型或速度、RAID 级别、应用类型)加以组织。 在图 2-2 中,池按成员 RAID 级别组织: • 一个名称为 RAID-10 的池由 RAID 10 成员组成。 • 一个名称为 RAID-5 的池由 RAID 5 成员组成。 创建卷 必须将 PS5000XV 物理磁盘配置为可用组件(即卷)后才能存储数据。卷代 表存储池的
表 5-2.
配置主机对卷的访问 安装并配置 Dell EqualLogic 主机集成工具 (HIT) 套件 1 将 HIT 工具套件 3.1.2 版下载到数据库服务器上。 2 双击 Setup64.exe 以启动安装窗口。 3 在 Welcome to the Host Integration Tools 3.1.2(欢迎使用主机集成工 具 3.1.
安装 Microsoft iSCSI 启动程序 1 单击 Start(开始)→ Settings(设置)→ Control Panel(控制 面板)→ Add or Remove Programs(添加或删除程序)。 2 选择 Microsoft iSCSI Initiator(Microsoft iSCSI 启动程序),单击 Remove(删除)。 执行此步骤可删除当前 HIT 3.1.2 附带的启动程序 2.0.7。 3 在 Software Update Removal Wizard(软件更新删除向导)窗口中, 单击 Next(下一步)。 4 在 Software Update Removal Wizard(软件更新删除向导)窗口中, 单击 Finish(完成)。 5 服务器备份完成后,即可将 Microsoft iSCSI 启动程序 2.0.8 下载到数据 库服务器上。 6 双击 Initiator-2.08-build3825-x64fre.
配置 Microsoft iSCSI 启动程序 1 双击桌面上的 Microsoft iSCSI Initiator(Microsoft iSCSI 启动程序) 图标。 2 在 iSCSI Initiator Properties(iSCSI 启动程序属性)窗口的 Discovery (搜索)选项卡中,EqualLogic 组地址的 IP 地址应已由 HIT 工具套件 填充。 3 在 iSCSI Initiator Properties(iSCSI 启动程序属性)窗口的 Targets (目标)选项卡中,单击为 Oracle 数据库创建的一个卷。单击 Log On (登录)。 4 在 Log On to Target(登录到目标)窗口中,选中 Automatically restore this connection when the system boots(系统引导时自动恢复此连接) 和 Enable multi-path(启用多路径)两个框。单击 Advanced (高级)。 5 在 Advanced Settings(高级设置)窗口的 General(常规)选项卡中, 执行以下配置:
配置 Oracle® RAC 数据库 (10gR2/11gR1) 的存储和网络 本节介绍有关网络和存储配置的信息。 • 配置公用和专用网络。 • 验证存储配置。 • 为 Oracle 群集件和 Oracle 数据库配置共享存储设备。 注: Oracle RAC 10g R2/11g R1 是一项复杂的数据库配置,要求按顺序执行一 系列步骤。要想用最少的时间配置网络和存储,请按顺序执行以下步骤。 配置公用和专用网络 注: 每个节点都需要一个唯一的公用和专用网际协议 (IP) 地址,以及一个 附加公用 IP 地址,该附加公用 IP 地址用作客户端连接和连接故障转移的虚 拟 IP 地址。虚拟 IP 地址必须与公用 IP 地址属于同一个子网。所有公用 IP 地址,包括虚拟 IP 地址,都应该在域命名服务 (DNS) 中注册。如果 DNS 服务器不可用,则必须在所有群集节点上的主机文件中注册 IP 地址。 根据可用 NIC 端口的数目,如表 6-1 所示配置公用和专用接口。 表 6-1.
配置专用网络并组队 在部署群集之前,为每个群集节点分配一个专用 IP 地址和主机名称。 此步骤可确保节点之间可以通过专用接口相互通信。 表 6-2 提供了双节点群集的网络配置示例。 注: 本示例假定所有 IP 地址均已在所有群集节点的主机文件中注册。 注: 专用网络的两个绑定的 NIC 端口应位于独立的 PCI 总线上。例如, 一个绑定对可由一个机载 NIC 和一个附加 NIC 卡组成。 表 6-2. 双节点群集的网络配置示例 主机名 类型 IP 地址 注册位置 rac1 公用 155.16.170.1 %SystemRoot%\system32\drivers\etc\hosts rac2 公用 155.16.170.2 %SystemRoot%\system32\drivers\etc\hosts rac1-vip 虚拟 155.16.170.201 %SystemRoot%\system32\drivers\etc\hosts rac2-vip 虚拟 155.16.170.
4 d 右键单击用于 NIC 组队的 Intel NIC,然后选择 Properties (属性)。 e 单击 Teaming(组队)选项卡。 f 选择 Team with other Adapters(与其它适配器组队),然后选择 New Team(新建组队)。 g 指定 NIC 组队的名称,然后单击 Next(下一步)。 h 在 Select the adapters to include in this team(选择要包括在此组队 中的适配器)框中,选择用于 NIC 组队的其余网络适配器,然后 单击 Next(下一步)。 i 在 Select a team mode(选择组队模式)列表框中,选择 Adaptive Load Balancing(自适应负载均衡)。 j 单击 Finish(完成)以完成组队。 k 在 Team Properties(组队属性)窗口中,单击 OK(确定)。 l 在 Intel NIC's Properties(Intel NIC 的属性)窗口中,单击 OK (确定)。 m 关闭 Computer Management(计算机管理)窗口
e 在 Team Type(组队类型)字段中,选择 Smart Load Balancing (TM)(智能负载均衡 [TM])和 Failover (SLB)(故障转移 [SLB]),然后单击 Next(下一步)。 f 在 Assigning Team Members(分配组队成员)窗口的 Available Adapters(可用适配器)框中,选择标记用于 NIC 组队的网络适 配器,然后将其添加到 Team Members(组队成员)框中。 注: 如果是 PowerEdge 6850 系统,将集成的 Broadcom NIC 配置到组队 中时,会显示以下警告信息: Including this adapter in a team will disrupt the system management features.
为公用网络适配器和专用网络适配器配置 IP 地址 注: 本解决方案不支持 NIC(支持 TOE)的 TOE 功能。 1 更新适配器的网络接口名称(如果需要)。否则,请转至步骤 3。 a 在节点 1 上,单击 Start(开始),然后导航至 Settings(设置)→ Control Panel(控制面板)→ Network Connections (网络连接)。 b 在 Network Connections(网络连接)窗口中,右键单击要重命名 的公用网络适配器,然后选择 Rename(重命名)。 注: 在群集节点上配置网络适配器时,请对所有群集节点上的公用适 配器和专用适配器使用相同的名称。否则,Oracle 数据库安装程序将生 成错误,从而无法完成安装过程。 2 c 将公用适配器名称重命名为 Public,然后按 键。 d 右键单击要重命名的专用 NIC 组队,然后选择 Rename (重命名)。 e 将专用 NIC 组队重命名为 Private,然后按 键。 配置 IP 地址。 注: 必须为公用接口设置默认网关,否则群集件安装可能会失败。 a
3 确保公用和专用网络适配器以适当的顺序显示,以便通过网络服务进 行访问。 a 在 Windows 桌面上,单击 Start(开始)→ Settings(设置)→ Control Panel(控制面板)→ Network Connections (网络连接)。 b 在 Network Connections(网络连接)窗口中,单击 Advanced (高级),然后选择 Advanced Settings(高级设置)。 c 选择 Adapter and Bindings(适配器和捆绑)选项卡。 d 确保网络适配器按以下顺序排列: 公用 专用 < 任何其它网络适配器 > 注: 单击上下箭头键以更改适配器顺序。 4 e 单击 OK(确定)。 f 关闭 Network Connections(网络连接)窗口。 在所有节点上,将公用、专用及虚拟 IP 地址和主机名称添加到 %SystemRoot%\system32\drivers\etc\hosts 文件中。 注: 仅当公用和虚拟 IP 地址没有在 DNS 服务器中注册时,才将它们添 加到主机文件。 例如,以下各项使用适配器 IP 和主机
注: 由于无法从公用网络访问专用网络 IP 地址,因此不需要向 DNS 服 务器注册专用 IP 地址。 5 在其余的节点上重复执行步骤 1 至步骤 4。 6 确保群集节点可以与公用和专用网络进行通信。 a 在节点 1 上,打开命令提示符窗口。 b 在命令提示符下键入: ping < 公用主机名 > ping < 专用主机名 > 其中 < 公用主机名 > 和 < 专用主机名 > 是其余节点中公用和专用网 络适配器的主机名。 如果节点的网络适配器没有响应 ping 命令,请检查网络配置,然后再 次执行此步骤。 注: 虚拟网际协议 (VIP) 将在后面配置,因此此时无法使用 ping 命令。 c 在其余的节点上重复执行步骤 a 到步骤 b。 安装存储设备所需的基于主机的软件 要使用 Dell/EMC 系统附带的 EMC 软件来安装 EMC Naviagent 软件, 请遵循 Dell/EMC 说明文件中的步骤进行操作。要安装 PowerVault MD3000 存储系统必需的基于主机的存储软件,请使用 MD3000 存储系统附带的 Dell PowerVault Resource CD 软件。请
5 展开 Storage(存储设备),然后单击 Disk Management (磁盘管理)。 如果显示 Welcome to the Initialize and Convert Disk Wizard(欢迎使 用初始化和转换磁盘向导),请执行步骤 a到步骤 d。否则,请转至步 骤 6。 a 在 Welcome to the Initialize and Convert Disk Wizard(欢迎使用初 始化和转换磁盘向导)窗口中,单击 Next(下一步)。 b 在 Disks(磁盘)窗口的 Select Disks to Initialize(选择要初始 化的磁盘)窗口中,选择与存储设备 LUN/ 虚拟磁盘关联的磁盘, 然后单击 Next(下一步)。 c 在 Select Disks to Convert(选择要转换的磁盘)窗口中,取消选 择在步骤 b 中选择的磁盘,然后单击 Next(下一步)。 注: 此步骤可确保将磁盘配置为基本磁盘。 d 单击 Finish(完成)。 6 在 Disk Management(磁盘管理)窗口中,验证是否显示四个磁盘。 磁盘的大小应大致相同,且与分配
为 MD3000/MD3000i 安装多路径驱动程序软件 1 在节点 1 上,从 Dell PowerVault MD3000 或 Dell MD3000i Resource CD 安装多路径驱动程序软件。 注: 有关详情,请参阅 Dell MD3000 或 MD3000i 存储系统附带的 说明文件。 2 安装过程完成后,请重新启动系统。 3 在其它节点上重复执行步骤 1 和步骤 2。 为 EqualLogic iSCSI 存储阵列安装多路径驱动程序软件 有关详情,请参阅第 78 页上的“安装并配置 Dell EqualLogic 主机集成工具 (HIT) 套件”。 验证多路径驱动程序功能 1 右键单击 My Computer(我的电脑),然后选择 Manage(管理)。 2 展开 Storage(存储设备),然后单击 Disk Management (磁盘管理)。 对于存储中分配的每个 LUN,都将显示一个磁盘。 3 确保每个 LUN 均配置为 Basic(基本)磁盘。 4 在其余的节点上重复执行步骤 1 至步骤 3。 为 Oracle 群集件、数据库和备份准备磁盘 本节介绍有
为共享磁盘启用自动安装选项 1 在节点 1 上,单击 Start(开始),然后选择 Run(运行)。 2 在 Run(运行)字段中,键入 cmd,然后单击 OK(确定)。 3 在命令提示符下,键入 diskpart,然后按 键。 4 在 DISKPART 命令提示符下,键入 automount enable,然后按 键。 将显示以下信息:Automatic mounting of new volumes enabled.
8 在所有分配给群集节点的共享磁盘上重复执行步骤 3 到步骤 7。 9 为 OCR 磁盘创建逻辑驱动器。 a 在标记用于 OCR 和投票磁盘(2 GB LUN/ 虚拟磁盘)的磁盘分区 区域上,右键单击可用空间,然后选择 New Logical Drive(新建 逻辑驱动器)。 随即显示 Welcome to the New Partition Wizard(欢迎使用新建分 区向导)。 10 b 单击 Next(下一步)。 c 在 Select Partition Type(选择分区类型)窗口中,选择 Logical drive(逻辑驱动器),然后单击 Next(下一步)。 d 在 Specify Partition Size(指定分区大小)窗口的 Partition size in MB(以 MB 为单位的分区大小)字段中键入 120,然后单击 Next(下一步。 e 在 Assign Drive Letter or Path(分配驱动器号或路径)窗口中, 选择 Do not assign a drive letter or drive path(不分配驱动器号或 驱动器路径),然后
d 在 Specify Partition Size(指定分区大小)窗口的 Partition size in MB(以 MB 为单位的分区大小)字段中,键入 50,然后单击 Next(下一步)。 e 在 Assign Drive Letter or Path(分配驱动器号或路径)窗口中, 选择 Do not assign a drive letter or drive path(不分配驱动器号或 驱动器路径),然后单击 Next(下一步)。 f 在 Format Partition(格式化分区)窗口中,选择 Do not format this partition(不格式化此分区),然后单击 Next(下一步)。 g 单击 Finish(完成)。 h 重复执行步骤 a 到步骤 g 以创建另外两个投票磁盘分区。 注: 如果使用冗余投票磁盘和 OCR,请重复执行步骤 9 和步骤 10 中列 出的用于冗余投票磁盘和 OCR 的步骤。 为使用 OCFS 的数据库存储准备数据库磁盘和快擦写恢复区域 本节介绍如何创建逻辑驱动器的信息。这些驱动器将用于创建 Oracle 的群 集文件系统 (OCFS
2 3 e 在 Specify Partition Size(指定分区大小)窗口的 Partition size in MB(以 MB 为单位的分区大小)字段中,键入相应的分区 大小,然后单击 Next(下一步)。 f 在 Assign Drive Letter or Path(分配驱动器号或路径)窗口中, 选择 Do not assign a drive letter or drive path(不分配驱动器号或 驱动器路径),然后单击 Next(下一步)。 g 在 Format Partition(格式化分区)窗口中,选择 Do not format this partition(不格式化此分区),然后单击 Next(下一步)。 h 单击 Finish(完成)。 在节点 1 上,为快擦写恢复区域创建一个逻辑驱动器。 a 找到分配给快擦写恢复区域的磁盘。 b 执行步骤 1 中的步骤 b 到步骤 h。 重新启动所有其它节点并作为管理员登录。 为使用 ASM 的数据库存储准备数据库磁盘和快擦写恢复区域 本节介绍关于创建逻辑驱动器的信息,这些驱动器将用于创建 ASM 磁盘 存储。AS
2 f 在 Assign Drive Letter or Path(分配驱动器号或路径)窗口中, 选择 Do not assign a drive letter or drive path(不分配驱动器号或 驱动器路径),然后单击 Next(下一步)。 g 在 Format Partition(格式化分区)窗口中,选择 Do not format this partition(不格式化此分区),然后单击 Next(下一步)。 h 单击 Finish(完成)。 为快擦写恢复区域创建一个逻辑驱动器。 a 找到分配给快擦写恢复区域的磁盘。 执行步骤 1 中的步骤 b 到步骤 h。 3 重新启动所有其它节点并作为管理员登录。 b 删除分配的驱动器号 94 1 在每个节点的 Windows 桌面上,右键单击 My Computer (我的电脑),然后选择 Manage(管理)。 2 在 Computer Management(计算机管理)窗口中,展开 Storage (存储设备),然后单击 Disk Management(磁盘管理)。 3 如果找到任何分配给在第 90 页上的“为群集件
索引 A E ASM , 92 EMC Naviagent, 87 PowerPath, 88 B EqualLogic 术语 成员, 73 池, 73 卷, 73 组, 73 绑定对, 82 帮助 Dell 支持, 56 Oracle 支持, 57 C 磁盘 Oracle 群集注册表磁盘, 89 冗余投票磁盘, 92 数据和备份磁盘, 89 投票磁盘, 89 D H HBA , 60 J IP 地址 公用 IP 地址, 81 虚拟 IP 地址, 81 iSCSI HBA , 69 Dell/EMC 光纤信道, 60 巨型包, 77 DNS, 81 巨帧, 77 电缆 CAT 5e/6, 60 光学, 60 SAS 电缆, 66 L 多路径, 72 流控制, 77 LUN , 61 索引 95
M S Microsoft iSCSI 启动程序, 79 SAN, 61 模块化磁盘存储管理器, 72 SAS 群集, 66 SDL , 72 O OCFS , 92 T TCP 减负引擎, 82 P PowerConnect 交换机, 73 X 虚拟网际协议, 87 Q 千兆位 NIC, 60 Y 千兆位以太网交换机, 60 以太网交换机, 60 R Z Resource CD , 72 主节点, 72 96 索引
Systèmes Dell™ PowerEdge™ Oracle® Database sous Microsoft® Windows Server® x64 Guide de stockage et de mise en réseau Version 1.1 w w w. d e l l . c o m | s u p p o r t . d e l l .
Remarques, précautions et avertissements REMARQUE : Une REMARQUE indique des informations importantes qui peuvent vous aider à mieux utiliser votre ordinateur. PRÉCAUTION : Une PRÉCAUTION vous avertit d'un risque de dommage matériel ou de perte de données en cas de non-respect des instructions données. AVERTISSEMENT : Un AVERTISSEMENT vous avertit d'un risque d'endommagement du matériel, de blessure corporelle ou de mort.
Table des matières 1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . Documentation nécessaire au déploiement de la base de données Dell™ Oracle . . . . . . . . . . . . . 104 Obtention d'aide . . . . . . . . . . . . . . . . . . . . . . . . 104 Support Dell . . . . . . . . . . . . . . . . . . . . . . . . 104 Assistance Oracle . . . . . . . . . . . . . . . . . . . . Configuration d'un cluster Fibre Channel . . . . . . . . . . Avant de commencer 107 . . . . . . . . . . . . . . . .
4 Configuration du cluster iSCSI pour les châssis d'extension Dell™ PowerVault™ MD3000i et PowerVault MD1000 . . . . . . . . . . . . . . . . Configuration d'un cluster iSCSI avec le système de stockage PowerVault MD3000i et les baies d'extension PowerVault MD1000 . . . . . . . . . Tâche 1: Installation du matériel . . . . . . 119 . . . . . . . . . . . . . 119 Tâche 2 : Installation des logiciels hôtes requis pour le stockage . . . . . . . . . . . . . . . . . . 122 . . . . . . . . . 122 . . . .
6 Configuration du stockage et de la mise en réseau pour Oracle ® RAC Database (10gR2/11gR1) . . . . . 133 . . . . . . . . . 133 . . . . . . . . . . . 134 Configuration des réseaux publics et privés Configuration du réseau privé et du regroupement de cartes (teaming) . Configuration du regroupement (teaming) de cartes réseau pour vos cartes réseau privées . . . . 135 . . . . . 138 . . . . . . . . . . . . . . . . 141 Configuration des adresses IP pour les cartes des réseaux public et privé .
Préparation des disques pour Oracle Clusterware, la base de données et la sauvegarde . . . . . . . . Activation de l'option Automount sur les disques partagés . . . . . . . . . . 144 . . . . . . . . . . . . 144 Préparation du disque OCR et du disque de vote pour Clusterware . . . . . . . . . . . . . . . . . Préparation du disque de la base de données et de la zone de récupération flash pour le stockage de la base de données avec OCFS . . . . . . . . . .
Présentation Le Guide de stockage et de mise en réseau pour Oracle® Database sous Microsoft® Windows® s'applique aux versions suivantes : • Oracle® Database 10g R2 exécuté sous Microsoft Windows Server® 2003 R2, édition Standard/Enterprise x64 ou Windows Server 2008, édition Enterprise/Standard x64. • Oracle Database 11g R1 exécuté sous Microsoft Windows Server 2003 R2, édition Standard/Enterprise x64 ou Windows Server 2008, édition Enterprise/Standard x64.
• Oracle Database on Microsoft Windows Server x64 Database Setup and Installation Guide (Oracle Database sous Microsoft Windows Server x64 – Guide de configuration et d'installation) : ce module décrit comment installer et configurer la base de données Oracle.
• Pour obtenir une assistance technique sur votre matériel ou le système d'exploitation et télécharger les dernières mises à jour appropriées pour votre système, visitez le site support.dell.com.
Présentation
Configuration d'un cluster Fibre Channel AVERTISSEMENT : Avant de commencer toute procédure de cette section, lisez les informations de sécurité fournies avec votre système. Pour plus d'informations sur les meilleures pratiques en matière de sécurité, consultez la page dédiée à la conformité et aux réglementations à l'adresse suivante : www.dell.com/regulatory_compliance.
Figure 2-1. Connexions matérielles pour un cluster Fibre Channel connecté à un SAN Réseau public Commutateurs Ethernet Gigabit (réseau privé) Réseau local/ Réseau étendu Commutateurs Dell/EMC Fibre Channel (SAN) Systèmes PowerEdge (base de données Oracle) CAT5e/6 (carte de réseau Gigabit cuivre) CAT5e/6 (carte de réseau Gigabit cuivre) Câbles à fibres optiques Tableau 2-1.
Tableau 2-1.
Câblage du système de stockage Fibre Channel Dell/EMC Selon vos besoins, vous pouvez configurer le système de stockage du cluster Oracle® dans une configuration avec connexion à un SAN à quatre ports. Reportez-vous aux procédures suivantes pour les deux configurations. La figure 2-2 présente les connexions matérielles utilisées pour configurer un cluster Fibre Channel avec connexion à un SAN Figure 2-2.
Pour configurer le système de stockage du cluster Oracle dans une configuration avec connexion à un SAN à quatre ports, procédez comme suit : 1 Installez un câble optique entre le port 0 du processeur de stockage A et le commutateur Fibre Channel 0. 2 Installez un câble optique entre le port 1 du processeur de stockage A et le commutateur Fibre Channel 1. 3 Installez un câble optique entre le port 0 du processeur de stockage B et le commutateur Fibre Channel 1.
Configuration d'un cluster Fibre Channel
Configuration d'un cluster SAS pour les systèmes Dell™ PowerVault™ MD3000 AVERTISSEMENT : Avant de commencer toute procédure de cette section, lisez les informations de sécurité fournies avec votre système. Pour plus d'informations sur les meilleures pratiques en matière de sécurité, consultez la page dédiée à la conformité et aux réglementations à l'adresse suivante : www.dell.com/regulatory_compliance.
Figure 3-1. Câblage du cluster SAS et du système Dell PowerVault MD3000 Réseau public Réseau local/ Réseau étendu Systèmes PowerEdge Système de stockage PowerVault MD3000 CAT5e/6 (carte de réseau Gigabit cuivre) CAT5e/6 (carte de réseau Gigabit cuivre) Câbles à fibres optiques Tableau 3-1.
Tableau 3-1. Interconnexions matérielles d'un cluster SAS (Suite) Composant de cluster Connexions PowerVault MD3000 • Deux câbles CAT 5e/6 connectés à un réseau local (un à partir de chaque module de processeur de stockage) • Deux connexions SAS vers chaque nœud de système PowerEdge via un contrôleur SAS 5/E. Voir “Câblage du système de stockage SAS”, page 115.
3 Installez un câble SAS entre un port du contrôleur SAS situé sur le nœud 2 et le port d'entrée In-1 du contrôleur RAID 0 du châssis RAID MD3000. 4 Installez un câble SAS entre un port du contrôleur SAS situé sur le nœud 2 et le port d'entrée In-1 du contrôleur RAID 1 du châssis RAID MD3000. Figure 3-2.
Configuration du cluster iSCSI pour les châssis d'extension Dell™ PowerVault™ MD3000i et PowerVault MD1000 AVERTISSEMENT : Avant de commencer toute procédure de cette section, lisez les informations de sécurité fournies avec votre système. Pour plus d'informations sur les meilleures pratiques en matière de sécurité, consultez la page dédiée à la conformité et aux réglementations à l'adresse suivante : www.dell.com/regulatory_compliance.
Tableau 4-1.
Configuration d'un cluster iSCSI avec le système de stockage PowerVault MD3000i et les baies d'extension PowerVault MD1000 Tâche 1: Installation du matériel Les clusters iSCSI à connexion directe sont limités à deux nœuds. Figure 4-1.
4 Installez un câble CAT 5e/6 entre l'autre port (carte adaptateur HBA iSCSI ou carte réseau) du nœud 2 et le port d'entrée In-1 du contrôleur RAID 1 de la baie de stockage Dell PowerVault MD3000i. 5 Installez deux câbles SAS entre les deux ports de sortie du MD3000 et les deux ports d'entrée (In) de la première baie d'extension Dell PowerVault MD1000 (facultatif).
Pour créer une configuration avec liaison par commutateur pour les nœuds du cluster (voir la figure 4-2), procédez comme suit : 1 Installez un câble CAT 5e/6 entre un port (carte adaptateur HBA iSCSI ou carte réseau) du nœud 1 et le port du commutateur réseau 1. 2 Installez un câble CAT 5e/6 entre un port (carte adaptateur HBA iSCSI ou carte réseau) du nœud 2 et le port du commutateur réseau 1.
Tâche 2 : Installation des logiciels hôtes requis pour le stockage Pour installer les logiciels hôtes requis pour le système de stockage Dell PowerVault MD3000i, utilisez le CD Dell PowerVault Resource fourni avec ce système. Suivez les procédures décrites dans la documentation Dell fournie avec le système de stockage Dell PowerVault MD3000i pour installer le logiciel Modular Disk Storage Manager sur le nœud principal, et le logiciel de gestion multivoie (MPIO) sur les nœuds restants.
Configuration d'un cluster iSCSI pour les systèmes de stockage Dell™ EqualLogic série PS AVERTISSEMENT : Avant de commencer toute procédure de cette section, lisez les informations de sécurité fournies avec votre système Pour plus d'informations sur les meilleures pratiques en matière de sécurité, consultez la page dédiée à la conformité et aux réglementations à l'adresse suivante : www.dell.com/regulatory_compliance.
Câblage du système de stockage EqualLogic iSCSI Les serveurs hôtes peuvent être connectés à la baie Dell™ EqualLogic PS5000XV iSCSI via un réseau de stockage (SAN) IP et un commutateur Ethernet Gigabit standard. La figure 5-1 montre la configuration réseau recommandée pour une baie de stockage PS5000XV avec deux modules de contrôle. Cette configuration comporte deux commutateurs Dell PowerConnect™ 54xx Gigabit Ethernet pour garantir une disponibilité optimale du réseau avec une bande passante maximale.
La figure 5-2 présente l'architecture d'un exemple de configuration d'Oracle RAC avec trois baies PS5000XV. Tableau 5-1. Code des couleurs de câble Couleur de câble Signification Bleu réseau de stockage (SAN) Rouge réseau d'interconnexion privé Oracle RAC Noir réseau public Le tableau 5-1 présente les couleurs de câble et leur signification. Les baies de stockage PS5000XV fournissent l'espace de stockage physique alloué à la base de données Oracle RAC.
Figure 5-2.
Comme l'illustre la figure 5-2, le groupe groupe-oracle inclut trois membres PS5000XV : • membre-oracle01 • membre-oracle02 • membre-oracle03 Lorsqu'un membre est initialisé, il peut être configuré en RAID 10, RAID 5 ou RAID 50. Pour plus d'informations sur l'initialisation d'une baie EqualLogic, voir le document Dell EqualLogic User's Guide (Guide de l'utilisateur de Dell EqualLogic). Un groupe de stockage série PS peut être divisé en plusieurs niveaux ou pools.
Tableau 5-2.
4 Cliquez sur l'onglet Avancé. 5 Mettez en surbrillance Paquet Jumbo et définissez sa valeur sur 9014 octets. 6 Mettez en surbrillance Options de performances, puis cliquez sur Propriétés. La fenêtre correspondante s'affiche. 7 Dans celle-ci, mettez en surbrillance Contrôle de flux et définissez sa valeur sur Rx et Tx activés. 8 Répétez l'étape 2 à l'étape 7 pour toutes les interfaces réseau intervenant dans le trafic iSCSI.
9 Une fois le serveur sauvegardé, une fenêtre Remote Setup Wizard (Assistant Installation à distance) s'affiche. 10 Sélectionnez Configure MPIO settings for this computer (Configurer les paramètres MPIO pour cet ordinateur), puis cliquez sur Next (Suivant). 11 Déplacez les sous-réseaux du réseau iSCSI vers la zone Subnets included for MPIO (Sous-réseaux inclus pour MPIO). Installez tous les autres sousréseaux faisant partie du même réseau en bas de Subnets excluded from MPIO (Sous-réseaux exclus de MPIO).
8 Dans la fenêtre Microsoft iSCSI Initiator Installation (Installation de l'initiateur Microsoft iSCSI), sélectionnez Initiator Service, Software Initiator (Service Initiateur, Initiateur) et Microsoft MPIO Multipathing Support for iSCSI (Prise en charge de Microsoft MPIO pour iSCSI). Cliquez sur Next (Suivant). 9 Dans la fenêtre License Agreement (Accord de licence), cliquez sur I Agree (J'accepte), puis sur Next (Suivant).
5 Dans l'onglet General (Général) de la fenêtre Advanced Settings (Paramètres avancés), procédez comme suit : a Sélectionnez le menu déroulant Microsoft iSCSI Initiator by the Local adapter (Initiateur Microsoft iSCSI via l'adaptateur local). b Sélectionnez le menu déroulant iSCSI initiator IP address by the Source IP (Adresse IP de l'Initiateur Microsoft iSCSI via l'adresse IP source).
Configuration du stockage et de la mise en réseau pour Oracle® RAC Database (10gR2/11gR1) Cette section contient des informations sur la configuration du réseau et du stockage.
Tableau 6-1. Affectation des ports de carte réseau Port de carte réseau Trois ports disponibles Quatre ports disponibles 1 IP public et IP virtuel IP public 2 IP privé (groupe de cartes réseau) IP privé (groupe de cartes réseau) 3 IP privé (groupe de cartes réseau) IP privé (groupe de cartes réseau) 4 NA IP virtuel Configuration du réseau privé et du regroupement de cartes (teaming) Avant de déployer le cluster, affectez une adresse IP privée et un nom d'hôte à chaque nœud de cluster.
Configuration du regroupement (teaming) de cartes réseau pour vos cartes réseau privées REMARQUE : Cette solution ne prend pas en charge le moteur de décentralisation TCP/IP (TOE, TCP Offload Engine) pouvant être utilisé par les cartes réseau. 1 Sur le nœud 1, identifiez deux cartes réseau devant être utilisées pour le regroupement. 2 Installez un câble Ethernet entre chaque carte réseau sélectionnée et le commutateur du réseau privé. 3 Si le nœud 1 est configuré avec des cartes réseau, passez à l'étape 4.
k Dans la fenêtre Team Properties (Propriétés du regroupement), cliquez sur OK. l Dans la fenêtre Intel NIC's Properties (Propriétés de la carte réseau Intel), cliquez sur OK. m Fermez la fenêtre Gestion de l'ordinateur. 4 Si le nœud 1 est configuré avec des cartes réseau Broadcom, configurez le regroupement des cartes réseau comme suit. Sinon, passez directement à l'étape 5. a Cliquez sur Démarrer → Programmes → Broadcom → Broadcom Advanced Control Suite 3.
REMARQUE : Lorsque vous regroupez des cartes réseau intégrées sur un système PowerEdge 6850, l'avertissement suivant s'affiche : Including this adapter in a team will disrupt the system management features. Click Yes to proceed. (L'ajout de cette carte à un regroupement va perturber les fonctions de gestion du système. Cliquez sur Oui pour continuer). g Cliquez sur Next (Suivant).
Configuration des adresses IP pour les cartes des réseaux public et privé REMARQUE : Cette solution ne prend pas en charge la fonction TOE utilisée par certaines cartes réseau. 1 Mettez à jour le nom de l'interface réseau de la carte, si cela est nécessaire. Sinon, passez à l'étape 3. a Sur le nœud 1, cliquez sur Démarrer et pointez sur Paramètres → Panneau de configuration → Connexions réseau.
d Dans la fenêtre qui s'affiche, sélectionnez Afficher une icône dans la zone de notification une fois la connexion établie. L'état de la carte réseau s'affichera dans la zone de notification une fois les procédures de cette section terminées. e Cliquez sur OK. f Dans la fenêtre Propriétés, cliquez sur Fermer. g Répétez les étapes a à f pour le regroupement de cartes de réseau privé.
Par exemple, les entrées suivantes utilisent l'adresse IP et le nom de l'hôte de la carte comme il est indiqué dans le tableau 6-3 : Tableau 6-3. Adresse IP et noms de nœud Adresse IP Nom du nœud 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.202 rac2-vip REMARQUE : Étant donné que les adresses IP du réseau privé ne sont pas accessibles à partir du réseau public, leur enregistrement sur le serveur DNS n'est pas nécessaire.
Installation des logiciels hôtes requis pour le stockage Pour installer le logiciel EMC Naviagent à l'aide des logiciels EMC fournis avec le système Dell/EMC, suivez les procédures décrites dans la documentation Dell/EMC. Pour installer les logiciels hôtes requis pour le système de stockage PowerVault MD3000, utilisez le disque Dell PowerVault Resource fourni avec ce système.
a Dans la fenêtre Bienvenue dans l'Assistant Initialisation et conversion de disque, cliquez sur Suivant. b Dans la fenêtre Sélectionnez les disques à initialiser de l'écran Disques, sélectionnez les disques associés aux LUN/disques virtuels de stockage et cliquez sur Suivant. c Dans la fenêtre Sélectionnez les disques à convertir, désélectionnez le ou les disques choisis à l'étape b et cliquez sur Suivant. REMARQUE : Cette procédure permet de configurer les disques en tant que disques de base.
Installation du logiciel multiacheminement pour les systèmes MD3000/MD3000i 1 Sur le nœud 1, installez le logiciel multiacheminement à partir du CD Resource fourni avec le système PowerVault MD3000 ou Dell MD3000i REMARQUE : Pour plus d'informations, reportez-vous à la documentation du système de stockage Dell MD3000 ou MD3000i. 2 Au terme de la procédure d'installation, redémarrez le système. 3 Recommencez l'étape 1 et l'étape 2 sur l'autre nœud.
Préparation des disques pour Oracle Clusterware, la base de données et la sauvegarde Cette section explique comment créer des lecteurs logiques pour les disques suivants : • Disque OCR (registre du cluster Oracle) : contient les informations de configuration du cluster. • Disque de vote : assure l'arbitrage entre les nœuds de cluster lorsque le réseau privé ou le stockage connecté n'est pas disponible pour un ou plusieurs nœuds.
5 À l'invite DISKPART, entrez exit et appuyez sur . 6 Fermez l'invite de commandes. 7 Recommencez la procédure de l'étape 1 à l'étape 6 sur chacun des nœuds restants. Préparation du disque OCR et du disque de vote pour Clusterware 1 Sur le bureau Windows, cliquez avec le bouton droit de la souris sur Poste de travail et sélectionnez Gérer. 2 Développez Stockage et sélectionnez Gestion des disques.
9 Créez un lecteur logique pour le disque de registre du cluster Oracle (OCR). a Dans la zone de partition du disque identifié pour servir de disque OCR et de disque de vote (LUN/disque virtuel de 2 Go), cliquez avec le bouton droit de la souris sur l'espace disponible et sélectionnez Créer un nouveau lecteur logique. La fenêtre Bienvenue dans l'Assistant Création d'une nouvelle partition s'affiche. b Cliquez sur Suivant.
e Dans la fenêtre Attribuer une lettre de lecteur ou de chemin d'accès, sélectionnez Ne pas attribuer une lettre ou un chemin d'accès de lecteur et cliquez sur Suivant. f Dans la fenêtre Formater une partition, sélectionnez Ne pas formater cette partition et cliquez sur Suivant. g Cliquez sur Terminer. h Recommencez la procédure d'écrite de l'étape a à l'étape g pour créer disques de vote supplémentaires.
d Dans la fenêtre Sélection du type de partition, sélectionnez Lecteur logique et cliquez sur Suivant. e Dans la fenêtre Spécifier la taille de la partition, entrez la taille appropriée dans le champ Taille de la partition en Mo et cliquez sur Suivant. f Dans la fenêtre Attribuer une lettre de lecteur ou de chemin d'accès, sélectionnez Ne pas attribuer une lettre ou un chemin d'accès de lecteur et cliquez sur Suivant.
1 Créez un lecteur logique pour la base de données. a Repérez le disque affecté à la base de données Oracle. b Dans la zone de partition du disque, cliquez avec le bouton droit de la souris sur l'espace disponible et sélectionnez Créer un nouveau lecteur logique. La fenêtre Bienvenue dans l'Assistant Création d'une nouvelle partition s'affiche. c Cliquez sur Suivant. d Dans la fenêtre Sélection du type de partition, sélectionnez Lecteur logique et cliquez sur Suivant.
Suppression des lettres affectées aux lecteurs 1 Sur le bureau Windows, pour chaque nœud, cliquez avec le bouton droit de la souris sur Poste de travail et sélectionnez Gérer. 2 Dans la fenêtre Gestion de l'ordinateur, développez l'élément Stockage et cliquez sur Gestion des disques.
Index A D adaptateur HBA, 108 Dell/EMC Fibre Channel, 109 adaptateur HBA iSCSI, 119 disque de données et de sauvegarde, 144 de vote, 144 de vote redondant, 147 disque OCR, 144 adresse adresse IP publique, 133 adresse IP virtuelle, 133 aide support Dell, 104 support Oracle, 105 ASM, 147 C câble CAT 5e/6, 108 optique, 108 SAS, 115 carte réseau Gigabit, 108 DNS, 133 E EMC Naviagent, 141 PowerPath, 142 L LUN, 109 CD Resource, 122 cluster SAS, 115 M commutateur Ethernet, 108 Microsoft iSCSI Initiat
N nœud principal, 122 O OCFS, 147 P paire liée, 134 paquet Jumbo, 129 protocole Internet virtuel, 140 S SAN, 110 SDL, 122 T terminologie EqualLogic groupe, 123 membre, 123 pool, 123 volume, 123 trame Jumbo, 128 152 Index
Dell™ PowerEdge™-Systeme Oracle® Database auf Systemen mit Microsoft® Windows Server® x64 Speicher- und Netzwerkhandbuch Version 1.1 w w w. d e l l . c o m | s u p p o r t . d e l l .
Anmerkungen, Vorsichtshinweise und Warnungen ANMERKUNG: Eine ANMERKUNG macht auf wichtige Informationen aufmerksam, mit denen Sie das System besser einsetzen können. VORSICHTSHINWEIS: Hiermit werden Sie auf mögliche Gefahrenquellen hingewiesen, die Hardwareschäden oder Datenverlust zur Folge haben können, wenn die Anweisungen nicht befolgt werden.
Inhalt 1 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . Benötigte Dokumentation zum Bereitstellen der Dell™/Oracle-Datenbank . . . . . . . . . . . . 160 . . . . . . . . . . . . . . . . 160 . . . . . . . . . . . . . . . . . . . . 160 Wie Sie Hilfe bekommen Oracle Support 2 . . . . . . . . . . . . 163 165 . . . . . . . . . . . . . . . . . . . Verkabelung des Dell/EMC Fibre-Channel-Speichersystems 166 . . . . . . . . . . . .
4 iSCSI-Cluster-Einrichtung für Dell™ PowerVault™ MD3000i und Erweiterungsgehäuse PowerVault MD1000 . . . . . . . . . . . . . . . Einrichten eines iSCSI-Clusters mit Dell PowerVault MD3000i-Speichersystem und Dell PowerVault MD1000Erweiterungsgehäusen . . . . . . . . . . . . . Schritt 1: Hardware-Setup . . . 175 . . . . . . . . . . . . 175 Schritt 2: Installation der hostbasierten Software für das Speichersystem . . . Schritt 3: Überprüfung und Upgrade der Firmware . . . . . . . . . . . . 178 . .
6 Konfiguration von Netzwerk und Speicher für Oracle ® RAC Database (10gR2/11gR1) . . . . . Konfiguration des öffentlichen und privaten Netzwerks . . . . . . . . . . . 189 . . . . . . . . . . . . . Konfiguration und Teaming des privaten Netzwerks . . . . . . . . . . . . . . Konfiguration von NIC-Teaming für die privaten Netzwerkadapter . . . . . . . . . Konfiguration der IP-Adressen für die öffentlichen und privaten Netzwerkadapter 189 190 191 . . . . 193 . . . . . . . . 196 . . . . . . . . .
Vorbereiten der Datenträger für Oracle Clusterware, Database und Backup . . . . . . 199 Aktivieren der Automount-Option für freigegebene Datenträger . . . . . . . . . . 200 Vorbereiten des OCR- und VotingDatenträgers für Clusterware . . . . . . . . . . . . . . . . . . 200 Vorbereiten des Datenbankdatenträgers und des Wiederherstellungsbereichs für OCFS-Datenspeicherung . . . . . . . . . . . . .
Übersicht Das Speicher- und Netzwerkhandbuch für Oracle® Database unter Microsoft® Windows® gilt für: • Oracle® Database 10g R2 auf Systemen mit Microsoft Windows Server® 2003 R2, Standard/Enterprise x64 Edition oder Windows Server 2008 Enterprise/Standard x64 Edition. • Oracle Database 11g R1 auf Systemen mit Microsoft Windows Server 2003 R2, Standard/Enterprise x64 Edition oder Windows Server 2008 Enterprise/Standard x64 Edition.
• Oracle Database auf Systemen mit Microsoft Windows Server x64 Setupund Installationshandbuch für die Datenbank – Beschreibt die Installation und Konfiguration der Oracle-Datenbank. • Oracle Database auf Systemen mit Microsoft Windows Server x64 – Fehlerbehebungshandbuch – Beschreibt das Erkennen und Beheben von Fehlern während der in den obenstehenden Modulen beschriebenen Installationsvorgänge. ANMERKUNG: Alle Module enthalten Informationen darüber, wie Sie technische Unterstützung von Dell erhalten.
• Technischen Support von Dell für Ihre Hardware und die BetriebssystemSoftware sowie die aktuellen Updates für Ihr System finden Sie auf der Dell Support-Website unter support.dell.com.
Übersicht
Einrichten von Fibre-ChannelClustern WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Ergänzende Informationen zur bestmöglichen Einhaltung der Sicherheitsrichtlinien finden Sie auf der Dell Website zur Einhaltung gesetzlicher Vorschriften unter www.dell.com/regulatory_compliance.
Abbildung 2-1. Hardwareverbindungen für einen SAN-Attached Fibre-Channel-Cluster Öffentliches Netzwerk Gb-Ethernet-Switches (privates Netzwerk) LAN/WAN Dell/EMC Fibre ChannelSwitches (SAN) PowerEdge-Systeme (Oracle Database) CAT 5e/6 (Kupfer-Gigabit-NIC) CAT 5e/6 (Kupfer-Gigabit-NIC) Glasfaserkabel Tabelle 2-1.
Tabelle 2-1.
Verkabelung des Dell/EMC Fibre-ChannelSpeichersystems Sie können das Oracle® Cluster-Speichersystem nach Bedarf in einer SANverbundenen Konfiguration mit vier Ports einrichten (SAN = Storage Area Network (Speicherbereichsnetzwerk)). Nachstehend sind die Anleitungen für beide Konfigurationstypen aufgeführt. Abbildung 2-2 zeigt die Hardwareverbindungen für die Einrichtung eines SAN-verbundenen Fibre-Channel-Clusters Abbildung 2-2.
Gehen Sie wie folgt vor, um das Oracle Cluster-Speichersystem für eine SAN-Attach-Konfiguration mit vier Ports zu verkabeln: 1 Verbinden Sie Port 0 von SP-A durch ein Glasfaserkabel mit Fibre-Channel-Switch 0. 2 Verbinden Sie Port 1 von SP-A durch ein Glasfaserkabel mit Fibre-Channel-Switch 1. 3 Verbinden Sie Port 0 von SP-B durch ein Glaserfaserkabel mit Fibre-Channel-Switch 1. 4 Verbinden Sie Port 1 von SP-B durch ein Glaserfaserkabel mit Fibre-Channel-Switch 0.
Einrichten von Fibre-Channel-Clustern
Einrichten eines SAS-Clusters für Dell™ PowerVault™ MD3000 WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Ergänzende Informationen zur bestmöglichen Einhaltung der Sicherheitsrichtlinien finden Sie auf der Dell Website zur Einhaltung gesetzlicher Vorschriften unter www.dell.com/regulatory_compliance.
Abbildung 3-1. Verkabelung des SAS (Serial-Attached SCSI)-Clusters und des Dell PowerVault MD3000 Öffentliches Netzwerk LAN/WAN PowerEdge-Systeme PowerVault MD3000 Speichersystem CAT 5e/6 (Kupfer-Gigabit-NIC) CAT 5e/6 (Kupfer-Gigabit-NIC) Glasfaserkabel Tabelle 3-1.
Tabelle 3-1. Verbindungen der SAS-Clusterhardware (fortgesetzt) Clusterkomponente Verbindungen PowerVault MD3000 • Zwei CAT 5e/6-Kabel zum LAN (eines von jedem Speicherprozessormodul) • Zwei SAS-Verbindungen zu jedem PowerEdgeSystemknoten mit einem SAS 5/E-Controller.
3 Verbinden Sie einen Port des SAS-Controllers von Knoten 2 durch ein SAS-Kabel mit dem Port In-1 von RAID-Controller 0 im MD3000 RAIDGehäuse. 4 Verbinden Sie einen Port des anderen SAS-Controllers von Knoten 2 durch ein SAS-Kabel mit dem Port In-1 von RAID-Controller 1 im MD3000 RAID-Gehäuse. Abbildung 3-2.
iSCSI-Cluster-Einrichtung für Dell™ PowerVault™ MD3000i und Erweiterungsgehäuse PowerVault MD1000 WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Ergänzende Informationen zur bestmöglichen Einhaltung der Sicherheitsrichtlinien finden Sie auf der Dell Website zur Einhaltung gesetzlicher Vorschriften unter www.dell.com/regulatory_compliance.
Tabelle 4-1. iSCSI-Hardwareverbindungen Clusterkomponente Verbindungen Ein PowerEdgeSystemknoten • Ein CAT 5e/6-Kabel vom öffentlichen NIC zum lokalen Netzwerk (LAN) • Ein CAT 5e/6-Kabel vom privaten Gigabit-NIC zum Gigabit-Ethernet-Switch (privates Netzwerk) • Ein CAT 5e/6-Kabel vom redundanten privaten GigabitNIC zum redundanten Gigabit-Ethernet-Switch (privates Netzwerk) ANMERKUNG: Weitere Informationen zum System Dell PowerVault MD3000i finden Sie im Einrichtungshandbuch für Dell PowerVault MD3000i.
Einrichten eines iSCSI-Clusters mit Dell PowerVault MD3000i-Speichersystem und Dell PowerVault MD1000-Erweiterungsgehäusen Schritt 1: Hardware-Setup Direkt verbundene iSCSI-Cluster sind auf zwei Knoten beschränkt. Abbildung 4-1.
4 Verbinden Sie den anderen Port (iSCSI-HBA oder NIC) von Knoten 2 durch ein CAT 5e/6-Kabel mit Port In-1 von RAID-Controller 1 im Dell PowerVault MD3000i-Speichergehäuse. 5 Verbinden Sie die beiden Ausgangsports des MD3000 durch zwei SAS-Kabel mit den beiden Eingangsports des ersten Dell PowerVault MD1000-Erweiterungsgehäuses (optional).
Um die Knoten über Switches zu konfigurieren (siehe Abbildung 4-2), gehen Sie wie folgt vor: 1 Verbinden Sie einen Port (iSCSI-HBA oder NIC) von Knoten 1 durch ein CAT 5e/6-Kabel mit dem Port von Netzwerkswitch 1. 2 Verbinden Sie einen Port (iSCSI-HBA oder NIC) von Knoten 1 durch ein CAT 5e/6-Kabel mit dem Port von Netzwerk-Switch 2. 3 Verbinden Sie einen Port (iSCSI-HBA oder NIC) von Knoten 2 durch ein CAT 5e/6-Kabel mit dem Port von Netzwerk-Switch 1.
Schritt 2: Installation der hostbasierten Software für das Speichersystem Um die erforderliche hostbasierte Software für das Speichersystem Dell PowerVault MD3000i zu installieren, verwenden Sie die Dell PowerVault Resource-CD, die mit dem MD3000i-Speichersystem geliefert wurde.
iSCSI-Cluster-Setup für Dell™ EqualLogic PSSpeichersysteme WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Ergänzende Informationen zur bestmöglichen Einhaltung der Sicherheitsrichtlinien finden Sie auf der Dell Website zur Einhaltung gesetzlicher Vorschriften unter www.dell.com/regulatory_compliance.
Verkabeln eines EqualLogic iSCSISpeichersystems Hostserver lassen sich mit dem Dell™ EqualLogic PS5000XV iSCSI-Array über einen üblichen IP-SAN-Gigabit-Ethernet-Switch verbinden (SAN = Storage Area Network). Abbildung 5-1 zeigt die empfohlene Netzwerkkonfiguration für ein PS5000XV-Array mit zwei Steuermodulen. Diese Konfiguration umfasst zwei Dell PowerConnect™ 54xx GigabitEthernet-Switches, um eine bestmögliche Netzwerkverfügbarkeit und die maximale Netzwerkbandbreite zu erreichen.
Abbildung 5-2 zeigt eine Oracle RAC-Beispielkonfiguration mit drei PS5000XV-Arrays. Tabelle 5-1. Farbkennzeichnung der Kabel Kabelfarbe Bedeutung Blau iSCSI-Speichernetzwerk (SAN) Rot Privates Oracle RAC-Verbindungsnetzwerk Schwarz Öffentliches Netzwerk Tabelle 5-1 erläutert die Bedeutung der Kabelfarben. Die PS5000XVSpeicherarrays stellen die physische Speicherkapazität für die Oracle RACDatenbank bereit.
Abbildung 5-2.
Wie in Abbildung 5-2 gezeigt, umfasst die Gruppe oracle-group drei PS5000XV-Mitglieder: • oracle-member01 • oracle-member02 • oracle-member03 Wenn ein Mitglied initialisiert wird, kann es mit RAID 10, RAID 5 oder RAID 50 konfiguriert werden. Weitere Informationen zum Initialisieren eines EqualLogic-Arrays erhalten Sie im Benutzerhandbuch zu Dell EqualLogic. Eine PS-Speichergruppe kann in mehrere Ebenen oder Pools unterteilt werden.
Tabelle 5-2.
4 Klicken Sie auf Erweitert. 5 Markieren Sie Jumbo Packet und setzen Sie den Wert auf 9014 Bytes. 6 Markieren Sie Performance Options (Leistungsoptionen) und klicken Sie dann auf Eigenschaften. Das Fenster Performance Options wird angezeigt. 7 Markieren Sie im Fenster Performance Options den Eintrag Flow Control (Flusskontrolle) und setzen Sie den Wert auf Rx & Tx Enabled (Aktiviert für Empfang und Versand).
8 Wählen Sie im Fenster System Restart Required (Neustart des Systems erforderlich) die Option Yes, I want to restart my computer now (Ja, ich möchte den Computer jetzt neu starten) und klicken Sie auf OK. 9 Wenn der Server wieder hochgefahren ist, wird das Fenster Remote Setup Wizard (Remote-Setup-Assistent) angezeigt. 10 Wählen Sie Configure MPIO settings for this computer (MPIO-Einstellungen für diesen Computer konfigurieren) und klicken Sie dann auf Next (Weiter).
8 Wählen Sie im Fenster Microsoft iSCSI Initiator Installation die Optionen Initiator Service, Software Initiator und Microsoft MPIO Multipathing Support for iSCSI. Klicken Sie auf Next (Weiter). 9 Wählen Sie im Fenster License Agreement (Lizenzvertrag) auf I Agree (Ich bin einverstanden) und klicken Sie auf Next (Weiter).
5 Konfigurieren Sie im Fenster Advanced Settings (Erweiterte Einstellungen) die Registerkarte General (Allgemein) wie folgt: a Wählen Sie Microsoft iSCSI Initiator im Dropdown-Menü Local adapter (Lokaler Adapter). b Wählen Sie eine IP-Adresse für den iSCSI-Initiator im DropdownMenü Source IP (Quell-IP). c Wählen Sie eine IP-Adresse für die EqualLogic-Gruppe im Dropdown-Menü Target Portal (Ziel-Portal). d Aktivieren Sie das Kontrollkästchen CHAP logon information (CHAP-Anmeldeinformationen).
Konfiguration von Netzwerk und Speicher für Oracle® RAC Database (10gR2/11gR1) Dieser Abschnitt enthält Informationen zur Netzwerk- und Speicherkonfiguration. • Konfiguration des öffentlichen und privaten Netzwerks • Überprüfen der Speicherkonfiguration • Konfiguration des gemeinsamen Speichers für Oracle Clusterware und Oracle Database ANMERKUNG: Oracle RAC 10g R2/11g R1 benötigt eine komplexe Datenbankkonfiguration mit einer festgelegten Reihenfolge von Vorgängen.
Tabelle 6-1. NIC-Port-Zuordnungen NIC-Port Drei verfügbare Ports Vier verfügbare Ports 1 Öffentliche IP und virtuelle IP Öffentliche IP 2 Private IP (NIC-Team) Private IP (NIC-Team) 3 Private IP (NIC-Team) Private IP (NIC-Team) 4 nicht zutreffend Virtuelle IP Konfiguration und Teaming des privaten Netzwerks Bevor Sie den Cluster einrichten, weisen Sie jedem Clusterknoten eine private IP-Adresse und einen Hostnamen zu.
Konfiguration von NIC-Teaming für die privaten Netzwerkadapter ANMERKUNG: Die TOE-Funktion (TCP Offload Engine) bei einem TOE-fähigen NIC wird bei dieser Lösung nicht unterstützt. 1 Wählen Sie zwei Netzwerkadapter an Knoten 1 aus, die für das NIC-Teaming verwendet werden. 2 Installieren Sie ein Ethernet-Kabel zwischen jedem der ausgewählten Netzwerkadapter und dem privaten Netzwerk-Switch. 3 Wenn Knoten 1 mit Broadcom-NICs ausgestattet ist, fahren Sie mit Schritt 4 fort.
l Klicken Sie im Fenster Intel NIC's Properties (Eigenschaften von Intel-NIC) auf OK. m Schließen Sie das Fenster Computerverwaltung. 4 Wenn Knoten 1 mit Broadcom-NICs ausgestattet ist, konfigurieren Sie das NIC-Teaming mit den nachstehenden Schritten. Andernfalls fahren Sie mit Schritt 5 fort. a Wählen Sie Start → Programme → Broadcom → Broadcom Advanced Control Suite 3. Das Fenster Broadcom Advanced Control Suite 3 wird angezeigt.
i Wählen Sie im Fenster Configuring Live Link (Live-Link konfigurieren) die Option No (Nein), und klicken Sie auf Next (Weiter). j Wählen Sie im Fenster Creating/Modifying a VLAN (VLAN erstellen/ ändern) die Option Skip Manage VLAN (VLAN-Verwaltung überspringen), und klicken Sie auf Next (Weiter). k Klicken Sie im letzten Fenster auf Preview (Voransicht), um das NIC-Team und die Adapter zu überprüfen.
c Ändern Sie die Bezeichnung des öffentlichen Netzwerkadapters in Public und drücken Sie die . d Klicken Sie mit der rechten Maustaste auf das Privat-NIC-Team, das Sie umbenennen möchten, und wählen Sie Umbenennen. e Benennen Sie das Private-NIC-Team in Private um, und drücken Sie die . 2 Konfigurieren Sie die IP-Adressen.
c Wählen Sie die Registerkarte Netzwerkkarten und Bindungen. d Vergewissern Sie sich, dass die Netzwerkadapter in der nachstehenden Reihenfolge aufgeführt sind: Öffentlich Privat ANMERKUNG: Um die Reihenfolge der Netzwerkadapter zu ändern, klicken Sie auf die Pfeilsymbole (Nach oben / Nach unten). e Klicken Sie auf OK. f Schließen Sie das Fenster Netzwerkverbindungen.
5 Wiederholen Sie Schritt 1 und Schritt 4 auf den verbleibenden Knoten. 6 Stellen Sie sicher, dass die Clusterknoten mit den öffentlichen und privaten Netzwerken kommunizieren können. a Öffnen Sie ein Befehlszeilenfenster auf Knoten 1. b Geben Sie Folgendes in die Befehlszeile ein: ping <Öffentlicher_Hostname> ping Ersetzen Sie dabei <Öffentlicher_Hostname> und durch die Hostnamen des öffentlichen bzw. des privaten Netzwerkadapters im verbleibenden Knoten.
Überprüfen der Zuordnung zwischen dem Speichersystem und den Knoten 1 Klicken Sie auf dem Windows-Desktop mit der rechten Maustaste auf Arbeitsplatz, und wählen Sie Verwalten. 2 Klicken Sie im Fenster Computerverwaltung auf Geräte-Manager. 3 Klicken Sie auf das Kreuz neben Laufwerke, um die Untereinträge einzublenden. 4 Vergewissern Sie sich, dass unter Laufwerke für jedes virtuelle Laufwerk/ LUN im Speichersystem vier SCSI-Laufwerke (Small Computer System Interface) aufgeführt sind.
Installation des Multipath-Treibers für Speichersysteme Um den passenden Multipath-Treiber zu installieren, befolgen Sie die Anleitung in der mit dem Speichersystem ausgelieferten Dokumentation. ANMERKUNG: Bei einem SAS- oder iSCSI-Cluster (MD3000/MD3000i-Speichersystem) sollte die Multipath-Software gemäß den Anweisungen von Abschnitt „Installation der host-basierten Software für das Speichersystem“ auf Seite 196 bereits auf den Hosts installiert sein.
Überprüfen der Funktionalität des Multipath-Treibers 1 Klicken Sie mit der rechten Maustaste auf Arbeitsplatz, und wählen Sie die Option Verwalten. 2 Blenden Sie Speicher ein, und klicken Sie dann auf Datenträgerverwaltung. Für jede im Speichersystem zugewiesene LUN wird ein Datenträger angezeigt. 3 Vergewissern Sie sich, dass jede LUN als Basic (Basis-) Datenträger konfiguriert ist. 4 Wiederholen Sie Schritt 1 und Schritt 3 auf den verbleibenden Knoten.
Aktivieren der Automount-Option für freigegebene Datenträger 1 Klicken Sie auf Knoten 1 auf Start, und wählen Sie Ausführen. 2 Geben Sie im Feld Ausführen den Befehl cmd ein, und klicken Sie auf OK. 3 Geben Sie an der Eingabeaufforderung den Befehl diskpart ein und drücken Sie die . 4 Geben Sie an der Eingabeaufforderung DISKPART den Befehl auto-mount enable ein und drücken Sie die .
7 Klicken Sie auf Fertig stellen. Der in Schritt 3 ausgewählte Partitionsbereich wird als erweiterte Partition konfiguriert. 8 Wiederholen Sie Schritt 3 bis Schritt 7 für alle freigegebenen Datenträger, die den Clusterknoten zugeordnet sind. 9 Erstellen Sie ein logisches Laufwerk für das OCR-Laufwerk. a Klicken Sie im Partitionsbereich des Datenträgers für OCR und Voting (2-GB-LUN/virtuelles Laufwerk) mit der rechten Maustaste auf den freien Platz und wählen Sie Neues logisches Laufwerk.
c Wählen Sie im Fenster Partitionstyp festlegen die Option Logisches Laufwerk und klicken Sie auf Weiter. d Geben Sie im Fenster Partitionsgröße festlegen im Feld Partitionsgröße in MB den Wert 50 ein und klicken Sie auf Weiter. e Wählen Sie im Fenster Laufwerkbuchstaben oder Pfand zuordnen die Option Keinen Laufwerkbuchstaben oder Pfad zuweisen und klicken Sie auf Weiter. f Wählen Sie im Fenster Partition formatieren die Option Diese Partition nicht formatieren und klicken Sie auf Weiter.
1 Erstellen Sie auf Knoten 1 ein logisches Laufwerk für den Datenbankdatenträger. a Identifizieren Sie den für die Oracle-Datenbank zugewiesenen Datenträger. b Klicken Sie mit der rechten Maustaste in den Laufwerkpartitionsbereich, und wählen Sie Neues logisches Laufwerk. Das Begrüßungsfenster des Assistenten zum Erstellen von Partitionen wird angezeigt. c Klicken Sie auf Weiter. d Wählen Sie im Fenster Partitionstyp festlegen die Option Logisches Laufwerk und klicken Sie auf Weiter.
Vorbereiten des Datenbankdatenträgers und des Wiederherstellungsbereichs für ASM-Datenspeicherung Dieser Abschnitt enthält Informationen zum Erstellen von logischen Laufwerken zum Einrichten eines ASM-Speichersystems (Automatic Storage Management). Ein ASM-Speichersystem besteht aus einer oder mehreren Laufwerkgruppen, die jeweils mehrere Laufwerke umfassen können.
Entfernen der zugewiesenen Laufwerksbuchstaben 1 Klicken Sie an jedem Knoten auf dem Windows-Desktop mit der rechten Maustaste auf Arbeitsplatz und wählen Sie Verwalten. 2 Erweitern Sie im Fenster Computerverwaltung den Eintrag Datenspeicher und klicken Sie auf Datenträgerverwaltung.
Konfiguration von Speicher und Netzwerk für Oracle RAC Database
Stichwortverzeichnis A G Ablaufsteuerung, 184 Gebundenes Paar, 190 ASM, 202 Gigabit-Ethernet-Switch, 165 Gigabit-NIC, 164 D Datenträger Daten- und Sicherungsdatenträger, 199 OCR-Datenträger (Oracle Cluster Registry), 199 Redundanter Voting-Datenträger, 202 Voting-Datenträger, 199 H Dell/EMC Fibre Channel, 164 IP-Adresse Öffentliche IP-Adresse, 189 Virtuelle IP-Adresse, 189 DNS, 189 E EMC Naviagent, 196 PowerPath, 198 EqualLogic-Begriffe Gruppe, 179 Mitglied, 179 Pool, 179 Volume, 179 HBA, 164 Hi
K P Kabel CAT 5e/6, 164 Glasfaserkabel, 164 SAS-Kabel, 171 PowerConnect-Switch, 180 R Ressourcen-CD, 178 L LUNs, 165 S SAN, 166 SAS-Cluster, 171 M Master-Knoten, 178 SDL, 178 Microsoft iSCSI-Initiator, 186 Modular Disk Storage Manager, 178 Multipath-Treiber, 178 TCP Offload Engine, 191 V O OCFS, 202 208 T Stichwortverzeichnis Virtual Internet Protocol (VIP), 196
Dell™ PowerEdge™ システム Microsoft® Windows Server® x64 上で 使用する Oracle® データベース ストレージ & ネットワークガイド バージョン 1.1 w w w. d e l l . c o m | s u p p o r t . d e l l .
メモ、注意、警告 メモ:コンピュータを使いやすくするための重要な情報を説明しています。 注意:手順に従わない場合は、ハードウェアの損傷やデータの損失の可能 性があることを示しています。 警告: 物的損害、けが、または死亡の原因となる可能性があることを示 しています。 ____________________ 本書の内容は予告なく変更されることがあります。 © 2009 すべての著作権は Dell Inc. にあります。 Dell Inc. の書面による許可のない複製は、いかなる形態においても厳重に禁じられています。 本書に使用されている商標:Dell、DELL ロゴ、PowerEdge、および PowerVault は Dell Inc.
目次 1 概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dell™ Oracle データベースの導入に 必要なマニュアル . . . . . . . . . . . . . . . . . . . . . . 215 . . . . . . . . . . . . . . . . 216 . . . . . . . . . . . . . . . . . . . . . . . . 216 本書で使用されている用語 . 困ったときは . デルサポート . . . . . . . . . . . . . . . . . . . . . . Oracle のサポート . 2 . . . . . . . . . . . . . . . . . . . ファイバーチャネルクラスタの セットアップ . . . . . . . . . . . . . . . 作業を開始する前に . 217 219 . . . . . . . . . . . . . . . . . . . . 221 . . .
4 Dell™ PowerVault™ MD3000i/MD1000 拡張エンクロージャ用の iSCSI クラスタのセットアップ . . . . . . . . . . . . . . Dell PowerVault MD3000i ストレージシステムと Dell PowerVault MD1000 拡張エンクロージャを 使用して iSCSI クラスタをセットアップする方法 . タスク 1: ハードウェアのセットアップ . . . 233 . . . . . . . 233 タスク 2: ストレージに必要なホストベー スソフトウェアのインストール . . . . . . . . . . . 236 . . . . . . . . . 237 . . . . . . . . . . . . . . . 237 タスク 3: ファームウェアの確認と アップグレード . . . . . . . . . . . . インストール後のタスク 5 Dell™ EqualLogic PS シリーズの ストレージシステム用の iSCSI クラスタのセットアップ . . . . . .
6 Oracle ® RAC データベース (10gR2/11gR1)用のストレージ (記憶域)およびネットワークの 設定 パブリックおよびプライベートネ ットワークの設定 . . . . . . . . . . . . . . 249 . . . . . . . . . . . . 249 . . . 250 . . . . . 251 プライベートネットワークの設定とチーム化 プライベートネットワークアダプタ用の NIC チーミングの設定 . . . . . . . . . . . . パブリックおよびプライベートネットワー クアダプタ用の IP アドレスの設定 . . . . . . . . . ストレージに必要なホストベースソフトウェアの インストール . . . . . . . . . . . . . . . . . . . . . . . . . 256 . . . . . 257 . . . . . . . 258 . . . . . . . . . . . . . . . . . . . . . .
Oracle Clusterware、データベース、 バックアップ用のディスクの準備 . . 索引 . 214 目次 . . . . . . . . . . . 259 共有ディスクの自動マウントオプションの 有効化 . . . . . . . . . . . . . . . . . . . . . . . . . . 260 Clusterware 用の OCR と投票ディスクの準備 . . . . 260 OCFS を使用したデータベースストレー ジ用のデータベースディスクとフラッシュ リカバリ領域の準備 . . . . . . . . . . . . . . . . . . 262 ASM を使用したデータベースストレー ジ用のデータベースディスクとフラッシュ リカバリ領域の準備 . . . . . . . . . . . . . . . . . . 263 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
概要 Microsoft® Windows® で使用する Oracle® データベースの 『ストレージ & ネットワークガイド』は、以下に適用されます。 • Microsoft Windows Server® 2003 R2, Standard/Enterprise x64 Edition または Windows Server 2008 Enterprise/Standard x64 Edition で使用する Oracle® Database 10g R2 • Microsoft Windows Server 2003 R2, Standard/Enterprise x64 Edition または Windows Server 2008 Enterprise/Standard x64 Edition で使用する Oracle Database 11g R1 Dell™ Oracle データベースの導入に必要なマ ニュアル Dell|Oracle データベースのインストールに必要なマニュアルは、以下 のとおりです。 • 『Microsoft Windows Server x64 で使用する Oracle デ
• 『Microsoft Windows Server x64 で使用する Oracle データベース — データベースセットアップ & インストールガイド』— Oracle データ ベースのインストールと設定の方法について説明しています。 • 『Microsoft Windows Server x64 で使用する Oracle データベース — トラブルシューティングガイド』— 前の分冊で説明されているインス トール手順中に発生するエラーの解決方法について説明しています。 メモ:各分冊のいずれにも、デルのテクニカルサポートを利用する方法 が記されています。 本書で使用されている用語 本書では、「論理ユニット番号」(LUN)および「仮想ディスク」とい う語が使われています。これらの用語は同義語であり、どちらを使用 しても構いません。「LUN」は Dell/EMC ファイバーチャネルストレー ジシステムの環境で、「仮想ディスク」は Dell PowerVault™ SAS (Dell MD3000i および Dell MD3000i + MD1000 拡張)ストレージの 環境で、通常使われる用語です。 困っ
• • ハードウェアおよび OS ソフトウェアに対するデルのテクニカルサ ポート、アップデートのダウンロードについては、デルサポートサ イト support.dell.com を参照してください。デルへのお問い合わ せの方法については、お使いのシステムの『Dell PowerEdge システ ム — Microsoft Windows Server x64 で使用する Oracle データベー ス — OS のインストールとハードウェアの取り付けガイド』および 『Dell PowerEdge システム — Microsoft Windows Server x64 で使 用する Oracle データベース — トラブルシューティングガイド』 に記されています。 デルでは、企業向けのトレーニングと資格認証を実施しております。 詳細については、dell.
概要
ファイバーチャネルクラ スタのセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの安 全にお使いいただくための注意事項をお読みください。ベストプラクティ スの追加情報については、デルの規制順守に関するウェブサイト www.dell.
図 2-1. SAN 接続のファイバーチャネルクラスタ用のハードウェア接続 パブリックネットワーク ギガビットイーサネットスイッチ (プライベートネットワーク) LAN/WAN PowerEdge システム (Oracle データベース) Dell/EMC ファイバーチャ ネルスイッチ(SAN) CAT 5e/6 (銅線ギガビット NIC) CAT 5e/6 (銅線ギガビット NIC) 光ファイバーケーブル 表 2-1.
表 2-1.
Dell/EMC ファイバーチャネルストレージの ケーブル接続 Oracle® クラスタストレージシステムは、必要に応じて 4 ポートの SAN 接続構成が可能です。各構成について、以下の手順を参照してく ださい。 SAN 接続のファイバーチャネルクラスタのセットアップに使うハード ウェア接続を 図 2-2 に示します。 図 2-2.
Oracle クラスタのストレージシステムを 4 ポートの SAN 接続で構成す るには、以下の手順を実行します。 1 1 本の光ケーブルを SP-A ポート 0 からファイバーチャネルス イッチ 0 に接続します。 2 1 本の光ケーブルを SP-A ポート 1 からファイバーチャネルス イッチ 1 に接続します。 3 1 本の光ケーブルを SP-B ポート 0 からファイバーチャネルス イッチ 1 に接続します。 4 1 本の光ケーブルを SP-B ポート 1 からファイバーチャネルス イッチ 0 に接続します。 5 1 本の光ケーブルをノード 1 の HBA 0 からファイバーチャネルス イッチ 0 に接続します。 6 1 本の光ケーブルをノード 1 の HBA 1 からファイバーチャネルス イッチ 1 に接続します。 7 1 本の光ケーブルを各追加ノードの HBA 0 からファイバーチャネ ルスイッチ 0 に接続します。 8 1 本の光ケーブルを各追加ノードの HBA 1 からファイバーチャネル スイッチ 1 に接続します。 ファイバーチャネルクラスタのセットアップ 223
ファイバーチャネルクラスタのセットアップ
Dell™ PowerVault™ MD3000 用の SAS クラスタのセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの安 全にお使いいただくための注意事項をお読みください。ベストプラクティ スの追加情報については、デルの規制順守に関するウェブサイト www.dell.
図 3-1. SAS(シリアル接続 SCSI)クラスタと Dell PowerVault MD3000 の ケーブル接続 パブリックネットワーク LAN/WAN PowerEdge システム PowerVault MD3000 ストレージシステム CAT 5e/6(銅線ギガビット NIC) CAT 5e/6(銅線ギガビット NIC) 光ファイバーケーブル 表 3-1.
表 3-1.
SAS ストレージシステムのケーブル接続 SAS クラスタは直接接続クラスタ内にのみ取り付け可能です。 したがって、2 ノードまでに限定されます。 ノードを直接接続(図 3-2 を参照)で構成するには、以下の手順を実 行します。 1 ノード 1 の SAS コントローラのポートと MD3000 RAID エンクロー ジャ内の RAID コントローラ 0 の In-0 ポートを 1 本の SAS ケーブル で接続します。 2 ノード 1 のもう一方の SAS コントローラのポートと MD3000 RAID エンクロージャ内の RAID コントローラ 1 の In-0 ポートを 1 本の SAS ケーブルで接続します。 3 ノード 2 の SAS コントローラのポートと MD3000 RAID エンクロー ジャ内の RAID コントローラ 0 の In-1 ポートを 1 本の SAS ケーブル で接続します。 4 ノード 2 のもう一方の SAS コントローラのポートと MD3000 RAID エンクロージャ内の RAID コントローラ 1 の In-1 ポートを 1 本の SAS ケーブルで接続します。 22
図 3-2.
Dell™ PowerVault™ MD3000 用の SAS クラスタのセットアップ
Dell™ PowerVault™ MD3000i/MD1000 拡張エンク ロージャ用の iSCSI クラスタ のセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの 安全にお使いいただくための注意事項をお読みください。ベストプラ クティスの追加情報については、デルの規制順守に関するウェブサイト www.dell.com/regulatory_compliance を参照してください。 本項では、Dell™ PowerEdge™ システムと Dell PowerVault MD3000i ハードウェアおよびソフトウェアが Oracle® RAC(Real Application Cluster)環境で機能するように設定するための情報と手順を示します。 デルサポートサイト support.dell.
表 4-1.
Dell PowerVault MD3000i ストレージシステ ムと Dell PowerVault MD1000 拡張エンクロー ジャを使用して iSCSI クラスタをセットアッ プする方法 タスク 1: ハードウェアのセットアップ 直接接続の iSCSI クラスタは 2 ノードまでに限定されています。 図 4-1.
ノードを直接接続で構成するには 図 4-1 を参照し、以下の手順を実行 します。 1 ノード 1 のポート(iSCSI HBA または NIC)と Dell PowerVault MD3000i ストレージエンクロージャ内の RAID コントローラ 0 の In-0 ポートを 1 本の CAT 5e/6 ケーブルで接続します。 2 ノード 1 のもう一方のポート(iSCSI HBA または NIC)と Dell PowerVault MD3000i ストレージエンクロージャ内の RAID コント ローラ 1 の In-0 ポートを 1 本の CAT 5e/6 ケーブルで接続します。 3 ノード 2 のポート(iSCSI HBA または NIC)と Dell PowerVault MD3000i ストレージエンクロージャ内の RAID コントローラ 0 の In-1 ポートを 1 本の CAT 5e/6 ケーブルで接続します。 4 ノード 2 のもう一方のポート(iSCSI HBA または NIC)と Dell PowerVault MD3000i ストレージエンクロージャ内の RAID コント ローラ 1 の
図 4-2.
6 スイッチ 1 のもう一方のポートと Dell PowerVault MD3000i ス トレージエンクロージャ内の RAID コントローラ 1 の In-0 ポー トを 1 本の CAT 5e/6 ケーブルで接続します。 7 スイッチ 2 のポートと Dell PowerVault MD3000i ストレージエ ンクロージャ内の RAID コントローラ 0 の In-1 ポートを 1 本の CAT 5e/6 ケーブルで接続します。 8 スイッチ 2 のもう一方のポートと Dell PowerVault MD3000i ス トレージエンクロージャ内の RAID コントローラ 1 の In-1 ポー トを 1 本の CAT 5e/6 ケーブルで接続します。 9 MD3000i の 2 個の出力ポートと 1 台目の Dell PowerVault MD1000 拡張エンクロージャの 2 個の入力ポートを 2 本の SAS ケーブルで接 続します(オプション)。 10 MD1000 の 2 個の出力ポートと 2 台目の Dell PowerVault MD1000 拡張エンクロージャの In-0 ポートを 2 本
タスク 3: ファームウェアの確認とアップグレード • ホストサーバーにインストールされている Modular Disk Storage Manager ソフトウェアを使用してホストサーバーの直接接続スト レージを検出します。 • 次のストレージコンポーネント用のファームウェアが最低必要な バージョンであることを確認します。ファームウェアのバージョン 要件については、Solutions Deliverable List(SDL)(ソリューショ ンリスト)を参照してください。 • MD3000i ストレージシステムファームウェア • MD1000 拡張エンクロージャファームウェア インストール後のタスク ドライバとソフトウェアをインストールした後で、 『MD3000i 取り付け ガイド』に示されているインストール後のタスクを実行して、表 4-1 に 示す環境を構築します。 MD3000i/MD1000 拡張エンクロージャ用の iSCSI クラスタのセットアップ 237
MD3000i/MD1000 拡張エンクロージャ用の iSCSI クラスタのセットアップ
Dell™ EqualLogic PS シリーズの ストレージシステム用の iSCSI クラスタのセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの 安全にお使いいただくための注意事項をお読みください。ベストプラク ティスの追加情報については、デルの規制順守に関するウェブサイト www.dell.
EqualLogic iSCSI ストレージシステムのケー ブル接続 ホストサーバーは、IP SAN 業界標準ギガビットイーサネットスイッチ を経由して Dell™ EqualLogic PS5000XV iSCSI アレイに接続できます。 図 5-1 は、デュアルコントロールモジュール PS5000XV アレイに推奨 されるネットワーク構成を示しています。Dell PowerConnect™ 54xx ギガビットイーサネットスイッチ 2 台による構成で、ネットワークの 可用性と帯域幅が共に最大となります。イーサネットスイッチが 1 台 のみの環境でスイッチに障害が発生すると、スイッチを物理的に交換し て設定を復元するまで、どのホストもストレージにアクセスできなくな ります。そのため、ギガビットイーサネットスイッチを 2 台使用する 構成をお勧めします。スイッチ 1 台の構成では、スイッチ間またはト ランク間の接続を提供するために、リンクアグリゲーションを使用す る複数のポートが必要です。さらに、各コントロールモジュールから、 1 つのギガビットインタフェースを 1 台のイーサネットスイッチに、 残りの 2
図 5-2 は、PS5000XV アレイ 3 つを使用した Oracle RAC 構成例の概略 図です。 表 5-1.
図 5-2.
図 5-2 に示すように、oracle-group という名前のグループには PS5000XV のメンバー 3 つが含まれています。 • oracle-member01 • oracle-member02 • oraclemember03 初期化済みのメンバーは、RAID 10、RAID 5、または RAID 50 のいず れかに構成できます。EqualLogic アレイの初期化の詳細については、 Dell EqualLogic の『ユーザーズガイド』を参照してください。 PS シリーズのストレージグループは、複数の階層またはプールに分割 できます。ストレージを階層化すると、ディスクリソースをより自在に 割り当てることができるようになります。メンバーを同時に複数のプー ルに割り当てることはできません。メンバーをプールに割り当てたり、 別のプールに移動する操作は簡単に行うことができ、データの可用性に 何ら影響はありません。プールは、ディスクのタイプ、速度、RAID レ ベル、アプリケーションのタイプなど、さまざまな基準に従って組むこ とができます。 図 2-2 では、プールはメンバーの RAID レベル
表 5-2.
5 Jumbo Packet(ジャンボパケット)をハイライト表示し、 値を 9014 バイトに設定します。 6 Performance Options(パフォーマンスオプション)をハイ ライト表示し、Properties(プロパティ)をクリックします。 Performance Options(パフォーマンスオプション)ウィン ドウが表示されます。 7 Performance Options(パフォーマンスオプション)ウィン ドウで、Flow Control(フロー制御)をハイライト表示し、 値を Rx & Tx Enabled(Rx & Tx 有効)に設定します。 8 iSCSI トラフィックに使用されるその他すべてのネットワークイン タフェースについて、手順 2 ~ 手順 7 を繰り返します。 ホストからボリュームへのアクセスの設定 Dell EqualLogic Host Integration Tool(HIT)キットのインストールと設定 1 HIT ツールキットバージョン 3.1.2 をデータベースサーバーにダウ ンロードします。 2 Setup64.
8 System Restart Required(システムの再起動が必要)ウィンド ウで、Yes, I want to restart my computer now(はい、今す ぐコンピュータを再起動します)を選択し、OK をクリックします。 9 サーバーが再起動すると、Remote Setup Wizard(リモートセッ トアップウィザード)ウィンドウが表示されます。 10 Configure MPIO settings for this computer(このコンピュー タの MPIO 設定を行う)を選択し、Next(次へ)をクリックし ます。 11 iSCSI ネットワークのサブネットを Subnets included for MPIO (MPIO 用に含まれているサブネット)の下に移動します。その他 すべてのネットワークのサブネットを Subnets excluded from MPIO(MPIO から除外されたサブネット)の下に移動します。 Load balance across paths(パス間の負荷バランス)の横にある ボックスにチェックを入れます。Finish(完了)をクリックします。
6 Initiator-2.08-build3825-x64fre.
5 Advanced Settings(詳細設定)ウィンドウの General(全般) タブで、以下の設定を行います。 a Local adapter(ローカルアダプタ)ドロップダウンメニューで Microsoft iSCSI Initiator(Microsoft iSCSI イニシエータ) を選択します。 b Source IP(送信元 IP)ドロップダウンメニューで iSCSI イニシ エータの IP アドレスを選択します。 c Target Portal(ターゲットポータル)ドロップダウンメニューで EqualLogic group IP(EqualLogic グループ IP)アドレスを選 択します。 d CHAP logon information(CHAP ログオン情報)チェック ボックスにチェックを入れます。 e User name(ユーザー名)ボックスに EqualLogic ストレージで 定義した CHAP ユーザー名を入力します。 f Target secret(ターゲットシークレット)ボックスに EqualLogic ストレージで定義した CHAP パスワードを入力
Oracle® RAC データベース (10gR2/11gR1)用のストレージ (記憶域)およびネットワー クの設定 本項では、ネットワークとストレージの設定について説明します。 • パブリックおよびプライベートネットワークの設定。 • ストレージ構成の確認。 • Oracle Clusterware および Oracle データベース用の共有ストレージ の構成。 メモ:Oracle RAC 10g R2/11g R1 は、順序化された一連の手順を必要とする 複雑なデータベース設定です。ネットワークとストレージを最小限の時間 で設定するには、以下の手順を順番に実行してください。 パブリックおよびプライベートネットワーク の設定 メモ:クライアント接続および接続のフェイルオーバーのために、固有 のパブリックおよびプライベート IP アドレスを 1 つと、仮想 IP アドレス としての機能を果たす追加のパブリック IP アドレスを 1 つ、各ノードに設 定する必要があります。仮想 IP アドレスはパブリック IP アドレスと同じ サブネットに属していなければなりません。仮想 IP アドレスを含むすべ
表 6-1.
プライベートネットワークアダプタ用の NIC チーミングの設定 メモ:このソリューションでは、TIE 対応 NIC の TOE(TCP オフロードエ ンジン)機能はサポートされません。 1 ノード 1 で、NIC チーム化に使用される 2 つのネットワークアダプ タを確認します。 2 選択した各ネットワークアダプタとプライベートネットワークス イッチをイーサネットケーブルで接続します。 3 ノード 1 が Broadcom NIC で構成されている場合は、手順 4 を参 照してください。ノード 1 が Intel® NIC で構成されている場合は、 次の手順で NIC のチーム化を設定します。 a マイコンピュータ を右クリックし、管理 を選択します。 b コンピュータの管理 ウィンドウで、デバイスマネージャ を選 択します。 c ネットワークアダプタ タブを展開します。 d NIC のチーム化用として識別された Intel NIC を右クリックし、 プロパティ を選択します。 e チーム化 タブをクリックします。 f その他のアダプタとチーム化する を選択し、新規チーム を選択 します
4 ノード 1 が Broadcom NIC で構成されている場合は、次の手順で NIC のチーム化を設定します。それ以外の場合は手順 5 に進みます。 a スタート → プログラム → Broadcom → Broadcom Advanced Control Suite 3 の順にクリックします。 Broadcom Advanced Control Suite 3 ウィンドウが表示さ れます。 b チームの管理 をハイライト表示し、チーム をクリックして チームの作成 を選択します。 Broadcom Teaming Wizard(Broadcom チーム化ウィ ザード)ウィンドウが表示されます。 c Next(次へ)をクリックします。 d Enter the name for the team(チームの名前を入力します) フィールドで、Private と入力し、Next(次へ)をクリック します。 e チームタイプを選択するフィールドで、Smart Load Balancing (TM) and Failover (SLB)(Smart Load Balancing (TM) とフェイル
h Designating Standby Member(スタンバイメンバーの指定) ウィンドウで、Do not configure a Standby Member (スタンバイメンバーは設定しない)を選択し、Next(次へ) をクリックします。 i Configuring Live Link(Live Link の設定)ウィンドウで、 No(いいえ)を選択し、Next(次へ)をクリックします。 j Creating/Modifying a VLAN(VLAN の作成 / 修正)ウィン ドウで、Skip Manage VLAN(管理 VLAN を省略する)を選 択し、Next(次へ)をクリックします。 k 最後のウィンドウで Preview(プレビュー)をクリックし、 NIC チームとアダプタを確認します。確認を終えたら、Commit changes to system(変更をシステムに適用する)を選択し、 ウィザードを終了します。完了 をクリックします。 l 情報メッセージウィンドウで Yes(はい)をクリックして続行 します。 m Broadcom Advanced Control
c パブリックアダプタ名を Public に変更し、 を押 します。 d 名前を変更するプライベート NIC チームを右クリックし、 名前の変更 を選択します。 e プライベート NIC チームの名前を Private に変更し、 を押します。 2 IP アドレスを設定します。 メモ:パブリックインタフェースにデフォルトゲートウェイを設定 する必要があります。そうしないと、Clusterware のインストールが 失敗する場合があります。 a スタート → 設定 → コントロールパネル → ネットワーク接続 → パブリック → プロパティ の順にクリックします。 b インターネットプロトコル(TCP/IP)をダブルクリックします。 c 次の IP アドレスを使う をクリックし、必要な IP アドレス、 デフォルトゲートウェイアドレス、および DNS サーバーの IP アドレスを入力し、OK をクリックします。 d パブリックプロパティ ウィンドウで、接続時に通知領域にアイ コンを表示する を選択します。 本項の手順を実行すると、システムトレイにネットワ
c アダプタとバインド タブを選択します。 d ネットワークアダプタが次の順序で表示されていることを確 認します。 パブリック プライベート < その他のネットワークアダプタ > メモ:アダプタの順序を変更するには、上下の矢印をクリックして ください。 e OK をクリックします。 f ネットワーク接続 ウィンドウを閉じます。 4 すべてのノードで、%SystemRoot%\system32\drivers\ etc\hosts ファイルにパブリック、プライベート、および仮想 IP アドレスとホスト名を追加します。 メモ:パブリック IP アドレスと仮想 IP アドレスが DNS サーバーに 登録されていない場合に限り、これらのアドレスをホストファイル に追加してください。 たとえば、以下の項目ではアダプタ IP とホスト名を 表 6-3 に示すよ うに使用しています。 表 6-3. IP アドレスとノード名 IP アドレス ノード名 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.
5 手順 1 ~ 手順 4 を残りのクラスタノードで繰り返します。 6 クラスタノードがパブリックおよびプライベートネットワークと通 信できることを確認します。 a ノード 1 で、コマンドプロンプトウィンドウを開きます。 b コマンドプロンプトで、次のコマンドを入力します。 ping < パブリックホスト名 > ping < プライベートホスト名 > < パブリックホスト名 > と < プライベートホスト名 > は、もう 1 つ のノードにおけるパブリックおよびプライベートネットワークアダ プタのホスト名です。 ノードのネットワークアダプタが ping コマンドに反応しない場 合は、ネットワーク設定を確認し、この手順を繰り返します。 メモ:仮想インターネットプロトコル(VIP)の設定は後で行わ れます。この時点では ping コマンドによる確認ができません。 c 手順 a ~ 手順 b を残りのクラスタノードで繰り返します。 ストレージに必要なホストベースソフトウェ アのインストール Dell/EMC システムに付属の EMC ソフトウェアを使用して EMC Naviagent ソフトウェアを
ノードに対するストレージの割り当ての確認 1 Windows デスクトップの マイコンピュータ を右クリックし 管理 を 選択します。 2 コンピュータの管理 ウィンドウで、デバイスマネージャ を選択 します。 3 ディスクドライブ を展開します。 4 ディスクドライブ の下で、ストレージに割り当てられている各 LUN/ 仮想ディスクについて、4 台の SCSI ディスクデバイスが表示されて いることを確認します。 5 記憶域 を展開し、ディスクの管理 をクリックします。 ディスクの初期化と変換ウィザードの開始 の画面が表示されたら、 手順 a ~ 手順 d を実行します。それ以外の場合は、手順 6 に進ん でください。 a ディスクの初期化と変換ウィザードへようこそ ウィンドウで、 次へ をクリックします。 b ディスク ウィンドウの 初期化するディスクの選択 ウィンド ウで、お使いのストレージ LUN/ 仮想ディスクと関連するディ スクを選択し、次へ をクリックします。 c 変換するディスクの選択 ウィンドウで、手順 b で選択したディ スクをクリアし、次へ をクリックします。 メモ:この手順に
ストレージ用のマルチパスソフトウェアのイ ンストール ストレージデバイスに付属のマニュアルに従って、適切なマルチパスソ フトウェアをインストールします。 メモ:SAS または iSCSI (MD3000/MD3000i ストレージシステム)クラスタ の場合、マルチパスソフトウェアは 256 ページの「ストレージに必要なホ ストベースソフトウェアのインストール」の説明に従ってホストにインス トール済みのはずです。 Dell/EMC システム用の PowerPath™ のインストール 1 ノード 1 で、EMC™ PowerPath™ をインストールします。 メモ:詳細については、Dell/EMC ストレージシステムに同梱の EMC PowerPath のマニュアルを参照してください。 2 インストールの手順が完了したら、システムを再起動します。 3 残りのノードで 手順 1 と 手順 2 を繰り返します。 MD3000/MD3000i 用のマルチパスドライバソフトウェアのインス トール 1 ノード 1 で、Dell PowerVault MD3000 または Dell MD3000i の 『Resourc
マルチパスドライバの機能の確認 1 マイコンピュータ を右クリックし、管理 を選択します。 2 記憶域 を展開し、ディスクの管理 をクリックします。 ストレージ内に割り当てられた LUN ごとに 1 台のディスクが表示さ れます。 3 各 LUN が ベーシック ディスクとして設定されていることを確認 します。 4 手順 1 ~ 手順 3 を残りのクラスタノードで繰り返します。 Oracle Clusterware、データベース、 バックアップ用のディスクの準備 本項では、以下のディスク用に論理ドライブを作成するための情報を提 供します。 • Oracle Cluster Registry(OCR)ディスク — クラスタ設定情報が 格納されています。 • 投票ディスク(Voting Disk)— 1 つまたは複数のノードでプライ ベートネットワークまたは接続ストレージが使用できない場合に、 クラスタノード間にアービトレーションを提供します。 • データディスクとバックアップディスク — データベースを作成し (データディスク)、バックアップとログデータを保存する(バック アップディスク)ためのスト
共有ディスクの自動マウントオプションの有効化 1 ノード 1 で スタート をクリックし、ファイル名を指定して実行 を選択します。 2 ファイル名を指定して実行 フィールドに cmd と入力し、OK をク リックします。 3 コマンドプロンプトで、diskpart と入力し、 を押します。 4 DISKPART コマンドプロンプトで automount enable と入力し、 を押します。 次のメッセージが表示されます。Automatic mounting of new volumes enabled.
7 完了 をクリックします。 手順 3 で選択したディスクパーティション領域が、拡張パーティ ションとして設定されます。 8 クラスタノードに割り当てられているすべての共有ディスクで、 手順 3 ~ 手順 7 を繰り返します。 9 OCR ディスク用に論理ドライブを作成します。 a OCR と投票ディスク(2 GB LUN/ 仮想ディスク)用として識 別されたディスクのパーティション領域で空き領域を右クリッ クし、新しい論理ドライブ を選択します。 新しいパーティションウィザードの開始 が表示されます。 b 次へ をクリックします。 c パーティションの種類を選択 ウィンドウで 論理ドライブ を選択し、次へ をクリックします。 d パーティションサイズの指定 ウィンドウの パーティション サイズ(MB)フィールドに 120 と入力し、次へ をクリック します。 e ドライブ文字またはパスの割り当て ウィンドウで、ドライブ文 字またはドライブパスを割り当てない を選択し、次へ をクリッ クします。 f パーティションのフォーマット ウィンドウで、このパーティ ションをフォーマットしない を
d パーティションサイズの指定 ウィンドウの パーティションサ イズ(MB)フィールドに 50 と入力し、次へ をクリックします。 e ドライブ文字またはパスの割り当て ウィンドウで、ドライブ文 字またはドライブパスを割り当てない を選択し、次へ をクリッ クします。 f パーティションのフォーマット ウィンドウで、このパーティ ションをフォーマットしない を選択し、次へ をクリックします。 g 完了 をクリックします。 h 手順 a ~ 手順 g を繰り返して、追加の投票ディスクパーティ ションを 2 つ作成します。 メモ:冗長投票ディスクと OCR を使用している場合は、冗長投票ディス クと OCR について 手順 9 および 手順 10 の手順を繰り返します。 OCFS を使用したデータベースストレージ用のデータベースディ スクとフラッシュリカバリ領域の準備 本項では、OCFS(Oracle Clustered File System)ストレージディスク の作成に使用する論理ドライブの作成方法について説明します。 メモ:ASM(Automatic Storage Managemen
e パーティションサイズの指定 ウィンドウで パーティションサ イズ(MB)フィールドに適切なサイズを入力し、次へ をク リックします。 f ドライブ文字またはパスの割り当て ウィンドウで、ドライブ文 字またはドライブパスを割り当てない を選択し、次へ をクリッ クします。 g パーティションのフォーマット ウィンドウで、このパーティ ションをフォーマットしない を選択し、次へ をクリックします。 h 完了 をクリックします。 2 ノード 1 で、フラッシュリカバリ領域用に 1 つの論理ドライブを作 成します。 a フラッシュリカバリ領域に割り当てられたディスクを確認します。 b 手順 1 の 手順 b ~ 手順 h を実行します。 3 他のすべてのノードを再起動し、Administrator としてログインし ます。 ASM を使用したデータベースストレージ用のデータベースディ スクとフラッシュリカバリ領域の準備 本項では、ASM ディスクストレージの作成に使用する論理ドライブ の作成方法について説明します。ASM ディスクストレージは、複数 のディスクへのスパニングが可能な 1
d パーティションの種類を選択 ウィンドウで 論理ドライブ を選択し、次へ をクリックします。 e パーティションサイズの指定 ウィンドウで パーティションサ イズ(MB)フィールドに適切なサイズを入力し、次へ をクリッ クします。 f ドライブ文字またはパスの割り当て ウィンドウで、ドライブ文 字またはドライブパスを割り当てない を選択し、次へ をクリッ クします。 g パーティションのフォーマット ウィンドウで、このパーティ ションをフォーマットしない を選択し、次へ をクリックします。 h 完了 をクリックします。 2 フラッシュリカバリ領域用に 1 つの論理ドライブを作成します。 a フラッシュリカバリ領域に割り当てられたディスクを確認します。 b 手順 1 の 手順 b ~ 手順 h を実行します。 3 他のすべてのノードを再起動し、Administrator としてログインし ます。 割り当て済みのドライブ文字の削除 1 各ノードの Windows デスクトップで、マイコンピュータ を右ク リックし、管理 を選択します。 2 コンピュータの管理 ウィンドウで、記憶域
索引 A H ASM , 262 HBA , 220 D I Dell/EMC ファイバー チャネル , 221 IP アドレス パブリック IP アドレス , 249 仮想 IP アドレス , 249 DNS , 249 iSCSI HBA , 233 E EMC Naviagent, 256 PowerPath, 258 EqualLogic 用語 グループ , 239 プール , 239 ボリューム , 239 メンバー , 239 L LUN , 221 M Microsoft iSCSI イニシエータ , 246 Modular Disk Storage Manager , 237 索引 265
O い OCFS , 262 イーサネットスイッチ , 220 P か PowerConnect スイッチ , 240 仮想インターネットプロトコル , 256 R Resource CD , 236 き ギガビット NIC , 220 ギガビットイーサネットスイッ チ , 221 S SAN , 222 SAS クラスタ , 228 SDL , 237 T け ケーブル CAT 5e/6, 220 SAS ケーブル , 228 光 , 220 TCP オフロードエンジン , 251 し ジャンボパケット , 245 ジャンボフレーム , 244 266 索引
て ディスク Oracle Cluster Registry ディスク , 259 冗長投票ディスク , 262 データディスクと バックアップディスク , 259 投票ディスク , 259 ふ フロー制御 , 244 へ ヘルプ Oracle サポート , 217 デルサポート , 216 ほ ボンディング済みのペア , 250 ま マスターノード , 236 マルチパス , 236 索引 267
索引
Sistemas Dell™ PowerEdge™ Base de datos Oracle® en Microsoft® Windows Server® x64 Guía de almacenamiento y redes Versión 1.1 w w w. d e l l . c o m | s u p p o r t . d e l l .
Notas, precauciones y avisos NOTA: Una NOTA proporciona información importante que le ayudará a utilizar mejor el ordenador. PRECAUCIÓN: Un mensaje de PRECAUCIÓN indica la posibilidad de daños en el hardware o la pérdida de datos si no se siguen las instrucciones. AVISO: Un mensaje de AVISO indica el riesgo de daños materiales, lesiones o incluso la muerte. ____________________ La información contenida en este documento puede modificarse sin previo aviso. © 2009 Dell Inc. Todos los derechos reservados.
Contenido 1 Información general . . . . . . . . . . 275 Terminología utilizada en este documento . . . . . . . . . . 276 . . . . . . . . . . . . . . . . . . . . . . 276 Asistencia de Dell . . . . . . . . . . . . . . . . . . . . Asistencia de Oracle . . . . . . . . . . . . . . . . . . . Configuración del clúster Fibre Channel . . . . . . . . . Antes de comenzar. 277 279 . . . . . . . . . . . . . . . . . . . . . . 281 . . . . . . . . . .
4 Configuración del clúster iSCSI para Dell™ PowerVault™ MD3000i y los alojamientos de expansión de PowerVault MD1000 . . . . . . . . . . . . . . . . Configuración del clúster iSCSI con un sistema de almacenamiento PowerVault MD3000i y alojamientos de expansión PowerVault MD1000 . Tarea 1: Configuración del hardware . . . . . . 291 . . . . . . . . . . 291 Tarea 2: Instalación del software basado en host necesario para el almacenamiento . . . . . . . 5 294 . . . . . . . . . . .
6 Configuración del almacenamiento y las redes para la base de datos RAC de Oracle ® (10g R2/11 gR1) . . . . . . . . . Configuración de las redes pública y privada . . . . 307 . . . . . . . . 307 . . . . . 308 . . . . . . . . . 309 Configuración y agrupación de la red privada . Configuración de la agrupación de NIC para los adaptadores de red privada . . Configuración de las direcciones IP para los adaptadores de red pública y privada . . . . .
Preparación de los discos para el software de clúster, base de datos y copia de seguridad de Oracle . . . . . Habilitación de la opción de montaje automático para los discos compartidos . . . . . . . . . . . Índice 274 Contenido . . . 317 . . . . 318 Preparación de los discos OCR y de votación para el software de clúster . . . . . . . . . . . . . . . . 318 Preparación del disco de base de datos y el área de recuperación flash para el almacenamiento de base de datos con OCFS . . . . . .
Información general La guía de almacenamiento y redes de la Base de datos Oracle® en Microsoft® Windows® es aplicable a: • Base de datos Oracle® 10g R2 en ejecución en Microsoft Windows Server® 2003 R2, Standard/Enterprise x64 Edition o Windows Server 2008 Enterprise/Standard x64 Edition. • Base de datos Oracle 10g R1 en ejecución en Microsoft Windows Server 2003 R2, Standard/Enterprise x64 Edition o Windows Server 2008 Enterprise/Standard x64 Edition.
• Base de datos Oracle en Microsoft Windows Server x64 — Guía de configuración e instalación de la base de datos: en ella se describe cómo instalar y configurar la base de datos Oracle. • Base de datos Oracle en Microsoft Windows Server x64 — Guía de solución de problemas: en ella se describe cómo solucionar problemas y resolver errores encontrados durante los procedimientos de instalación descritos en los módulos anteriores.
• Para obtener asistencia técnica de Dell para el hardware y el software del sistema operativo, y para descargar las últimas actualizaciones del sistema, visite la página web de asistencia de Dell, en support.dell.com.
Información general
Configuración del clúster Fibre Channel AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite la página web sobre el cumplimiento de normativas en www.dell.com/ regulatory_compliance.
Ilustración 2-1. Conexiones de hardware para un clúster Fibre Channel de conexión mediante SAN Red pública Conmutadores Ethernet Gb (red privada) LAN/WAN Dell/EMC Fibre Channel Conmutadores (SAN) Sistemas PowerEdge (base de datos Oracle) CAT 5e/6 (NIC Gigabit de cobre) CAT 5e/6 (NIC Gigabit de cobre) Cables de fibra óptica Tabla 2-1.
Tabla 2-1. Interconexiones de hardware Fibre Channel (continuación) Componente del clúster Conexiones Sistema de almacenamiento Dell/EMC Fibre Channel • Una conexión óptica a cada HBA de los sistemas PowerEdge y una conexión óptica a un puerto de cada procesador de almacenamiento. Conmutador Ethernet Gigabit • Una conexión CAT5e/6 a la NIC Gigabit privada en cada sistema PowerEdge. • Una conexión CAT5e/6 al otro conmutador Ethernet Gigabit.
Cableado del sistema de almacenamiento Dell/EMCFibre Channel Puede configurar el sistema de almacenamiento del clúster Oracle® con una configuración de conexión mediante una red de área de almacenamiento (SAN) de cuatro puertos, según sus necesidades. A continuación se describen los procedimientos relativos a ambas configuraciones. En la ilustración 2-2 se muestran las conexiones de hardware utilizadas al configurar un clúster de Fibre Channel de conexión mediante SAN. Ilustración 2-2.
Utilice el procedimiento siguiente para configurar el sistema de almacenamiento del clúster Oracle en una configuración de conexión mediante SAN de cuatro puertos. 1 Conecte un cable óptico del puerto 0 de SP-A al conmutador 0 Fibre Channel. 2 Conecte un cable óptico del puerto 1 de SP-A al conmutador 1 Fibre Channel. 3 Conecte un cable óptico del puerto 0 de SP-B al conmutador 1 Fibre Channel. 4 Conecte un cable óptico del puerto 1 de SP-B al conmutador 0 Fibre Channel.
Configuración del clúster Fibre Channel
Configuración del clúster SAS para Dell™ PowerVault™ MD3000 AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite la página web sobre el cumplimiento de normativas en www.dell.com/regulatory_compliance.
Ilustración 3-1. Cableado del clúster SCSI (SAS) de conexión serie y Dell PowerVault MD3000 Red pública LAN/WAN Sistemas PowerEdge Sistema de almacenamiento PowerVault MD 3000 CAT 5e/6 (NIC Gigabit de cobre) CAT 5e/6 (NIC Gigabit de cobre) Cables de fibra óptica Tabla 3-1. Interconexiones de hardware del clúster SAS Componente del clúster Conexiones Nodo del sistema PowerEdge • Un cable CAT 5e/6 de la NIC pública a la red de área local (LAN).
Tabla 3-1. Interconexiones de hardware del clúster SAS (continuación) Componente del clúster Conexiones Sistema de almacenamiento • Dos cables CAT5e/6 conectados a una LAN (uno desde cada módulo del procesador de almacenamiento). • Dos conexiones SAS a cada nodo del sistema PowerEdge mediante una controladora SAS 5/E. Consulte “Cableado del sistema de almacenamiento SAS” en la página 287. Conmutador Ethernet Gigabit • Una conexión CAT5e/6 a la NIC Gigabit privada en cada sistema PowerEdge.
3 Conecte un cable SAS de un puerto de la controladora SAS del nodo 2 al puerto In-1 de la controladora RAID 0 en el alojamiento RAID de MD3000. 4 Conecte un cable SAS de un puerto de la otra controladora SAS del nodo 2 al puerto In-1 de la controladora RAID 1 en el alojamiento RAID de MD3000. Ilustración 3-2.
Configuración del clúster iSCSI para Dell™ PowerVault™ MD3000i y los alojamientos de expansión de PowerVault MD1000 AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite la página web sobre el cumplimiento de normativas en www.dell.com/regulatory_compliance.
Tabla 4-1. Interconexiones de hardware iSCSI Componente del clúster Conexiones Un nodo del sistema PowerEdge • Un cable CAT 5e/6 de la NIC pública a la red de área local (LAN). • Un cable CAT 5e/6 de la NIC Gigabit privada al conmutador Ethernet Gigabit (red privada). • Un cable CAT 5e/6 de la NIC Gigabit privada redundante al conmutador Ethernet Gigabit redundante (red privada).
Configuración del clúster iSCSI con un sistema de almacenamiento PowerVault MD3000i y alojamientos de expansión PowerVault MD1000 Tarea 1: Configuración del hardware Los clústeres iSCSI de conexión directa están limitados a dos nodos únicamente. Ilustración 4-1.
4 Conecte un cable CAT 5e/6 del otro puerto (NIC o HBA iSCSI) del nodo 2 al puerto In-1 de la controladora RAID 1 en el alojamiento para almacenamiento Dell PowerVault MD3000i. 5 Conecte dos cables SAS de los dos puertos de salida de MD3000 a los dos puertos de entrada del primer alojamiento de expansión Dell PowerVault MD1000 (opcional). 6 Conecte dos cables SAS de los dos puertos de salida de MD1000 a los puertos In-0 del segundo alojamiento de expansión Dell PowerVault MD1000 (opcional).
Para configurar los nodos en una conexión conmutada, vea la ilustración 4-2 y realice los pasos siguientes: 1 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 1 al puerto del conmutador de red 1. 2 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 1 al puerto del conmutador de red 2. 3 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 2 al puerto del conmutador de red 1.
Tarea 2: Instalación del software basado en host necesario para el almacenamiento Para instalar el software de almacenamiento basado en host necesario para el sistema de almacenamiento PowerVault MD3000i, utilice el software del CD de recursos de Dell PowerVault entregado con el sistema de almacenamiento MD3000i.
Configuración del clúster iSCSI para los sistemas de almacenamiento Dell™ EqualLogic serie PS AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite la página web sobre el cumplimiento de normativas en www.dell.com/regulatory_compliance.
Cableado del sistema de almacenamiento iSCSI EqualLogic Los servidores host se pueden conectar a la matriz iSCSI Dell™ EqualLogic PS5000XV a través de un conmutador Ethernet Gigabit estándar de red de área de almacenamiento (SAN) IP. En la ilustración 5-1 se muestra la configuración de red recomendada para una matriz PS5000XV de módulo de control dual.
En la ilustración 5-2 se ofrece una visión general de una configuración de Oracle RAC de muestra con 3 matrices PS5000XV. Tabla 5-1. Leyenda de los colores de los cables Color de los cables Significa Azul Red de área de almacenamiento iSCSI (SAN) Rojo Redes de interconexión privadas Oracle RAC Negro Red pública En la tabla 5-1 se describen los colores de los cables y su significado.
Ilustración 5-2.
Tal como se muestra en la ilustración 5-2, el grupo denominado oracle-group incluye tres miembros PS5000XV: • oracle-member01 • oracle-member02 • oraclemember03 Al inicializar un miembro, se puede configurar con RAID 10, RAID 5 o RAID 50. Para obtener más información sobre cómo inicializar una matriz EqualLogic, consulte la guía del usuario de Dell EqualLogic. Un grupo de almacenamiento de la serie PS se puede segregar en varios niveles en cascada o bloques.
Tabla 5-2.
Configuración de redes iSCSI Dell recomienda configurar las interfaces de red del host para el tráfico iSCSI de modo que utilicen el control de flujo y la trama gigante para obtener un rendimiento óptimo. Para definir el control de flujo y la trama gigante, realice los pasos siguientes: 1 Seleccione Start (Inicio) → Settings (Configuración) → Network Connections (Conexiones de red). 2 Resalte la interfaz de red iSCSI y haga clic con el botón derecho del ratón en Properties (Propiedades).
4 En la ventana License Agreements (Contratos de licencia), seleccione I accept the terms of all the license agreements (Acepto los términos de todos los contratos de licencia) y haga clic en Next (Siguiente). 5 En la ventana Installation Type (Tipo de instalación), haga clic en Next (Siguiente). 6 En la ventana Ready to install the components (Preparado para instalar los componentes), haga clic en Install (Instalar).
Instalación del iniciador iSCSI de Microsoft 1 Haga clic en Start (Inicio) → Settings (Configuración) → Control Panel (Panel de control) → Add or Remove Programs (Agregar o quitar programas). 2 Seleccione Microsoft iSCSI Initiator (Iniciador iSCSI de Microsoft) y haga clic en Remove (Quitar). Con este paso se elimina el iniciador 2.0.7 incluido con el paquete HIT 3.1.2.
Configuración del iniciador iSCSI de Microsoft 1 Haga doble clic en el icono Microsoft iSCSI Initiator (Iniciador iSCSI de Microsoft) que se encuentra en el escritorio. 2 En la ficha Discovery (Detección) de la ventana iSCSI Initiator Properties (Propiedades del iniciador iSCSI), el kit de herramientas HIT ya debería haber rellenado la dirección IP de la dirección del grupo EqualLogic.
6 En la ventana Log On to Target (Iniciar sesión en destino), haga clic en OK (Aceptar). 7 En la ficha Targets (Destinos) de la ventana iSCSI Initiator Properties (Propiedades del iniciador iSCSI), el estado del volumen en el que se ha iniciado sesión debe ser Connected (Conectado). 8 Repita del paso 3 al paso 7 para iniciar sesión en el mismo volumen para el resto de las direcciones IP del iniciador iSCSI.
Configuración del clúster iSCSI para los sistemas EqualLogic serie PS
Configuración del almacenamiento y las redes para la base de datos RAC de Oracle® (10g R2/11 gR1) En esta sección se proporciona información sobre la configuración de la red y el almacenamiento.
Tabla 6-1. Asignaciones de puerto NIC Puerto NIC Tres puertos disponibles Cuatro puertos disponibles 1 IP pública e IP virtual IP pública 2 IP privada (grupo de NIC) IP privada (grupo de NIC) 3 IP privada (grupo de NIC) IP privada (grupo de NIC) 4 ND IP virtual Configuración y agrupación de la red privada Antes de implantar el clúster, asigne una dirección IP y un nombre de host privados a cada nodo del clúster.
Configuración de la agrupación de NIC para los adaptadores de red privada NOTA: En esta solución no se admite la función de motor de descarga TPC (TOE) de una NIC compatible con TOE. 1 Identifique en el nodo 1 los dos adaptadores de red que se utilizarán para la agrupación de NIC. 2 Conecte un cable Ethernet de cada adaptador de red seleccionado al conmutador de la red privada. 3 Si el nodo 1 está configurado con NIC Broadcom, vaya al paso 4.
k En la ventana Team Properties (Propiedades del grupo), haga clic en OK (Aceptar). l En la ventana Intel NIC's Properties (Propiedades de NIC Intel), haga clic en OK (Aceptar). m Cierre la ventana Computer Management (Administración de equipos). 4 Si el nodo 1 está configurado con NIC Broadcom, realice los pasos siguientes para configurar la agrupación de NIC. De lo contrario, vaya al paso 5. a Haga clic en Start (Inicio) → Programs (Programas) → Broadcom → Broadcom Advanced Control Suite 3.
g Haga clic en Next (Siguiente). h En la ventana Designating Standby Member (Designación de miembro en espera), seleccione Do not configure a Standby Member (No configurar un miembro en espera) y haga clic en Next (Siguiente). i En la ventana Configuring Live Link (Configuración de enlace activo), seleccione No y haga clic en Next (Siguiente).
c Cambie el nombre del adaptador público a Público y pulse . d Haga clic con el botón derecho del ratón en el grupo de NIC privado cuyo nombre desea cambiar y seleccione Rename (Cambiar nombre). e Cambie el nombre del grupo de NIC privado a Privado y pulse . 2 Configure las direcciones IP. NOTA: Debe establecer una puerta de enlace predeterminada para su interfaz pública; de lo contrario, la instalación del software de clúster puede fallar.
b En la ventana Network Connections (Conexiones de red), haga clic en Advanced (Opciones avanzadas) y seleccione Advanced Settings (Configuración avanzada). c Seleccione la ficha Adapters and Bindings (Adaptadores y enlaces). d Asegúrese de que los adaptadores de red aparecen listados en el orden siguiente: Público Privado NOTA: Haga clic en las teclas de flecha hacia arriba y hacia abajo para cambiar el orden de los adaptadores. e Haga clic en OK (Aceptar).
5 Repita del paso 1 al paso 4 en los nodos restantes. 6 Asegúrese de que los nodos del clúster pueden comunicarse con las redes pública y privada. a En el nodo 1, abra una ventana de indicador de comandos. b En el indicador de comandos, escriba: ping ping donde y son los nombres de host de los adaptadores de red pública y privada del nodo restante.
Verificación de la asignación de almacenamiento a los nodos 1 En el escritorio de Windows, haga clic con el botón derecho del ratón en My Computer (Mi PC) y seleccione Manage (Administrar). 2 En la ventana Computer Management (Administración de equipos), haga clic en Device Manager (Administrador de dispositivos). 3 Expanda Disk drives (Unidades de disco).
Instalación del software multirruta para el almacenamiento Siga las instrucciones que se indican en la documentación incluida con el dispositivo de almacenamiento para instalar el software multirruta adecuado. NOTA: En el caso de un clúster SAS o iSCSI (sistema de almacenamiento MD3000/MD3000i), el software multirruta ya debería estar instalado en los hosts según se indica en la sección “Instalación del software basado en host necesario para el almacenamiento” en la página 314.
Verificación de las funciones del controlador multirruta 1 Haga clic con el botón derecho del ratón en My Computer (Mi PC) y seleccione Manage (Administrar). 2 Expanda Storage (Almacenamiento) y haga clic en Disk Management (Administración de discos). Aparece un disco por cada LUN asignado en el almacenamiento. 3 Asegúrese de que todos los LUN están configurados como disco básico. 4 Repita del paso 1 al paso 3 en los nodos restantes.
Habilitación de la opción de montaje automático para los discos compartidos 1 En el nodo 1, haga clic en Start (Inicio) y seleccione Run (Ejecutar). 2 En el campo Run (Ejecutar), escriba cmd y haga clic en OK (Aceptar). 3 En el indicador de comandos, escriba diskpart y pulse . 4 En el indicador de comandos de DISKPART, escriba automount enable y pulse . Se muestra el mensaje siguiente: Automatic mounting of new volumes enabled (montaje automático de nuevos volúmenes activado).
6 En la ventana Specify Partition Size (Especificar el tamaño de la partición), acepte el tamaño predeterminado y haga clic en Next (Siguiente). 7 Haga clic en Finish (Finalizar). El área de partición de disco que ha seleccionado en el paso 3 se configura como partición extendida. 8 Repita los pasos del paso 3 al paso 7 en todos los discos compartidos que están asignados a los nodos del clúster. 9 Cree una unidad lógica para el disco OCR.
10 Cree una unidad lógica para el disco de votación. a En el área de partición del disco identificada para los discos OCR y de votación (disco virtual/LUN de 2 GB), haga clic con el botón derecho del ratón en el espacio libre y seleccione New Logical Drive (Unidad lógica nueva). Aparece la ventana Welcome to the New Partition Wizard (Éste es el Asistente para partición nueva). b Haga clic en Next (Siguiente).
Preparación del disco de base de datos y el área de recuperación flash para el almacenamiento de base de datos con OCFS En esta sección se proporciona información para crear las unidades lógicas que se utilizarán para la creación del disco de almacenamiento OCFS (Sistema de archivos de clúster de Oracle).
g En la ventana Format Partition (Formatear la partición), seleccione Do not format this partition (No formatear esta partición) y haga clic en Next (Siguiente). h Haga clic en Finish (Finalizar). 2 En el nodo 1, cree una unidad lógica para el área de recuperación flash. a Localice el disco asignado para el área de recuperación flash. b Realice del paso b al paso h indicados en paso 1. 3 Reinicie los demás nodos e inicie sesión como administrador.
f En la ventana Assign Drive Letter or Path (Asignar letra de unidad o ruta de acceso), seleccione Do not assign a drive letter or drive path (No asignar una letra o ruta de acceso de unidad) y haga clic en Next (Siguiente). g En la ventana Format Partition (Formatear la partición), seleccione Do not format this partition (No formatear esta partición) y haga clic en Next (Siguiente). h Haga clic en Finish (Finalizar). 2 Cree una unidad lógica para el área de recuperación flash.
Configuración de las redes y el almacenamiento para Oracle RAC
Índice A ASM, 321 ayuda asistencia de Dell, 276 asistencia de Oracle, 277 discos disco de registro del clúster Oracle, 317 disco de votación, 317 disco de votación redundante, 320 discos de datos y de copia de seguridad, 317 C DNS, 307 cable cable SAS, 287 CAT 5e/6, 280 óptico, 280 E CD de recursos, 294 clústeres de SAS, 287 EMC Naviagent, 314 PowerPath, 316 conmutador Ethernet, 280 conmutador Ethernet Gigabit, 281 conmutador PowerConnect, 296 control de flujo, 301 D Dell/EMC Fibre Channel, 281 H
J O Jumbo frames (Tramas gigantes), 301 OCFS, 321 Jumbo Packet (Paquete gigante), 301 P par de bonding, 308 protocolo virtual de internet, 314 L LUN, 281 S M SAN, 282 Modular Disk Storage Manager, 294 SDL, 294 motor de descarga TCP, 309 multirruta, 294 T N términos de EqualLogic bloque, 295 grupo, 295 miembro, 295 volumen, 295 NIC Gigabit, 280 nodo maestro, 294 326 Ìndice