前回の作業ではASMディスクの容量不足にてDB作成に失敗しました。
その続きとして新たにディスク・グループを追加してDB作成をしたいと思います。
またデータベースですが一部インストール条件を変更します。
インストール先 DATA02
DATA02は今回の記事で作成していきます。
それ以降はデータベースの作成と作成後の確認になります。
それでは進めていきたいと思います。
ASMCAでディスク・グループを追加する
ASMCAの起動
まずGUIにてgridユーザでログインします。
ログイン後にターミナルを開いて環境変数とディスプレイ変数を設定してから「asmca」コマンドで起動します。
正常に起動する事を確認します。
それではディスク・グループを作成していきます。
ディスク・グループの作成
左ペインの「Disk Groups」をクリックして選択します。
既存のディスク・グループが表示されています。
左下の「Create」をクリックします。
名前を「DATA02」とします。
ディスクが見えない場合は「Show all」をクリックすると表示されます。
またすべてのディスクを今回は同一グループにします。
「CANDIDATE」になっているディスクを選択して「OK」をクリックします。
作成が完了すると正常に表示されます。
しかし、別ノードではディスクが認識できませんでした。
一旦、片方のOSを再起動します。
DB作成作業の続き
DBCAから作成する
前回記事はインストールまで実施しました。
上記で紹介している手順は省いて進めたいと思います。
DBCAを起動して進めていきます。
一部、ディスク・グループが「DATA02」へ置き換わっています。
また管理者管理型からポリシー管理型に変更して作成していきたいと思います。
前回は管理者管理型で進めましたがポリシー管理型にします。
サーバ・プールを作成します。
グローバル・データベース名はデフォルトの設定値で進みます。
コンテナ・データベースについては前回と同様の設定です。
ここからが前回からの続きになります。
正常にDATA02を認識しています。
ここからが続きになります。
基本的にオプションもデフォルトで行きます。
メモリー管理も「自動共有メモリー管理」で設定します。
SGAサイズは特に変更しません。
またEM Expressも構成します。
デフォルトポート番号の「5500」のままです。
ちなみに一番上の「CVU」ですが今まではここに選択しは無かったと思いますがチェックのまま次に進みます。
各アカウントのパスワード設定です。
検証環境なのであえて分けずに統一します。
そのまま作成で進めていきます。
インストール検証が入ります。
無事に検証が通りました。
サマリ画面が表示されたら内容を確認して「Finish」で作成を開始します。
正常にDB作成が完了しました。
それでは確認作業に入りたいと思います。
DB作成後の確認
インスタンスの状態を確認します。
srvctlコマンドで確認します。
[grid@node02 ~]$ srvctl status database -d orcl インスタンスorcl_1はノードnode01で実行中です。 [grid@node02 ~]$
念のためクラスタリソースを確認します。
一度ノード1の再起動を実行したためインスタンスがノード02に移動しています。
[root@node01 oraInventory]# crsctl stat res -t -------------------------------------------------------------------------------- Name Target State Server State details -------------------------------------------------------------------------------- Local Resources -------------------------------------------------------------------------------- ora.ASMNET1LSNR_ASM.lsnr ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.ASMNET2LSNR_ASM.lsnr ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.DATA01.GHCHKPT.advm OFFLINE OFFLINE node01 STABLE OFFLINE OFFLINE node02 STABLE ora.DATA01.dg ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.DATA02.dg ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.LISTENER.lsnr ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.chad ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.data01.ghchkpt.acfs OFFLINE OFFLINE node01 STABLE OFFLINE OFFLINE node02 STABLE ora.helper OFFLINE OFFLINE node01 IDLE,STABLE OFFLINE OFFLINE node02 IDLE,STABLE ora.net1.network ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.ons ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE ora.proxy_advm ONLINE ONLINE node01 STABLE ONLINE ONLINE node02 STABLE -------------------------------------------------------------------------------- Cluster Resources -------------------------------------------------------------------------------- ora.LISTENER_SCAN1.lsnr 1 ONLINE ONLINE node01 STABLE ora.LISTENER_SCAN2.lsnr 1 ONLINE ONLINE node02 STABLE ora.LISTENER_SCAN3.lsnr 1 ONLINE ONLINE node02 STABLE ora.MGMTLSNR 1 ONLINE ONLINE node02 169.254.15.176 192.1 68.22.102 192.168.33 .102,STABLE ora.asm 1 ONLINE ONLINE node02 Started,STABLE 2 ONLINE ONLINE node01 Started,STABLE 3 OFFLINE OFFLINE STABLE ora.cvu 1 ONLINE ONLINE node02 STABLE ora.mgmtdb 1 ONLINE ONLINE node02 Open,STABLE ora.node01.vip 1 ONLINE ONLINE node01 STABLE ora.node02.vip 1 ONLINE ONLINE node02 STABLE ora.orcl.db 1 ONLINE ONLINE node02 Open,HOME=/u01/app/o racle/product/18.0.0 /dbhome_1,STABLE ora.qosmserver 1 ONLINE ONLINE node02 STABLE ora.rhpserver 1 OFFLINE OFFLINE STABLE ora.scan1.vip 1 ONLINE ONLINE node01 STABLE ora.scan2.vip 1 ONLINE ONLINE node02 STABLE ora.scan3.vip 1 ONLINE ONLINE node02 STABLE -------------------------------------------------------------------------------- [root@node01 oraInventory]#
SIDの環境変数を修正します。
SQLPLUSで接続すると正常に接続できました。
[oracle@node02 ~]$ export ORACLE_SID=orcl_1 [oracle@node02 ~]$ sqlplus / as sysdba SQL*Plus: Release 18.0.0.0.0 - Production on Sun Oct 21 21:46:14 2018 Version 18.3.0.0.0 Copyright (c) 1982, 2018, Oracle. All rights reserved. Connected to: Oracle Database 18c Enterprise Edition Release 18.0.0.0.0 - Production Version 18.3.0.0.0 SQL> SQL>
SQLでデータベースの状態を確認してコンテナ・データベースも確認します。
データベースは正常にOPENしておりアクティブです。
SQL> set lines 500 SQL> col INSTANCE_NAME format a15 SQL> col STATUS format a15 SQL> col DATABASE_STATUS format a10 SQL> select INSTANCE_NAME,STATUS,DATABASE_STATUS,ACTIVE_STATE from v$instance; INSTANCE_NAME STATUS DATABASE_S ACTIVE_STATE --------------- --------------- ---------- --------------------------- orcl_1 OPEN ACTIVE NORMAL SQL>
コンテナ・データベースも正常に動作しています。
SQL> show con_name CON_NAME ------------------------------ CDB$ROOT SQL>
PDBも作成されておりMOUNTEDになっています。
SQL> show pdbs CON_ID CON_NAME OPEN MODE RESTRICTED ---------- ------------------------------ ---------- ---------- 2 PDB$SEED READ ONLY NO 3 PDB MOUNTED SQL>
プラガブル・データベースをオープンします。
SQL> alter pluggable database all open; Pluggable database altered. SQL>
PDBに接続しコンテナ名を確認します。
正常に接続確認が出来ました。
SQL> alter session set container=PDB; Session altered. SQL> SQL> show con_name CON_NAME ------------------------------ PDB SQL>
ここまで確認できれば問題ないでしょう。
次回からは未だに検証できていないFlex ClusterやFlex ASMを検証したいと思います。
Oracle Master Plutinumに合格するにはRACの構築スキルも必要です。
12cから追加になった新機能ですがきちんと検証していきたいと思います。