顯示具有 Dell 標籤的文章。 顯示所有文章
顯示具有 Dell 標籤的文章。 顯示所有文章

前言

因為常常需要處理需要報修 Dell 原廠的 伺服器、工作站、PC,所以就記錄一下官方相關的技術查詢網址,以及主機保固查詢網址,方便馬上查詢保固資訊或撥打技術資源進行叫修。

技術支援及保固查詢

您可以連結到 Dell 技術支援電話號碼清單 網址,依需求 (桌上型電腦、筆記型電腦、伺服器...等),撥打相關的技術支援電話。

或連結到 查詢 保固資訊、服務合約 網址,輸入 Dell 主機的 Service Tag 即可查詢主機保固資訊。
圖片來源: Dell 網站 - Support

Q.Dell PowerEdge 2950 RAID Card 損壞時,該怎麼進行後續處理?

Error Message:
已經建立 RAID 並運作許久的 Dell PowerEdge 2950 伺服器,某天突然 RAID Card 損壞故障了,那麼在磁碟陣列中的作業系統以及資料該怎麼辦? 怎麼更換 RAID Card ,並且進行怎麼樣的程序才能不影響作業系統及資料?

Ans:
以往舊的伺服器機種,僅會將 RAID 設定 儲存於 RAID Card 中,所以一旦 RAID Card 損壞就無解再見了!!

新的伺服器機種,能夠將 RAID 設定除了會儲存一份於 RAID Card 之外,硬碟也會儲存一份。因此,RAID Card 損壞之後並不會使原本的 RAID 設定遺失,當然硬碟中原有的作業系統及資料也沒有遺失的問題 (但是後續的相關操作要很小心,否則很容易發生悲劇!!)。

首先,要注意的地方是當您將 RAID Card 進行更換後,此時在開機過程中伺服器會 比對後發現新的 RAID Card 與硬碟中的 RAID 設定互不相同,因此這個步驟您必須要特別小心,您可以將 硬碟中的 RAID 設定複製一份到新更換 RAID Card 中 (如果你不小心設定成,把新的 RAID Card 設定資料複製到硬碟中,那就再見啦!!)。

以下便是簡述更換新的 RAID Card 過程: (如果可以的話,還是先把原有的資料備份吧!!)

1. 伺服器開機後,偵測到目前硬碟中與新的 RAID Card 內的 RAID 設定 互不相同,因此詢問您是否要進行設定,請依序按下 C >> Y 進入 RAID Utility 設定。

2. 進入 RAID Utility 後,您可以看到目前 RAID Card 中是沒有任何設定 (DG、VD),只看到偵測到有三顆硬碟 (PD Count 3) 而以。(請尊重 Weithenn 的辛勞!!)

3. 接著準備將 硬碟中的 RAID 設定複製到 RAID Card 中 (HDD -> RAID Card),請移至【No Configuration Present !】 項目後按下【F2】,於彈出視窗中選擇【Foreign Config】項目,於彈出視窗中選擇【Import】項目。

4. 此時會出現確認視窗請選擇【YES】,確定要將硬碟中的 RAID 設定複製到 RAID Card 內。

5. 複製作業完成後,可以看到目前 RAID Card 已經有了 原來 的 RAID 設定 (新的 RAID Card 正確套用到之前的 RAID 設定!!),此時便可以離開並重新開機,然後開開心心的進入作業系統吧。

Q.Dell Optiplex 990 安裝 Intel 1000 PT 網卡後運作不正常?

Error Message:
為 Dell Optiplex 990 主機,額外安裝了一片 Intel 1000 PT 網路卡之後,主機的網路功能就變得運作不正常了? 例如 Ping 會無緣無故掉包...之類的。

Ans:
此台 Dell Optiplex 990 主機目前的 BIOS 版本為 A05 ,而查看 Dell 官網 (Dell Drivers and Download - OptiPlex 990 System BIOS) 後發現最新版本為 A07,將此台 Dell Optiplex 990 主機的 BIOS 版本,更新為最新版本的 A07 之後,發現 Intel 1000 PT 網路卡運作就變正常了!!(請尊重 Weithenn 的辛勞!!)

Q. Dell Optiplex 755 開機出現 I/O Card Parity interrupt at 6000:1D52 錯誤?

Error Message:
運作了好一陣子的 Dell Optiplex 755 主機,有天在重新開機時出現如下錯誤訊息,並且無法繼續下去?
I/O Card Parity interrupt at 6000:1D52 
Ans:
再試了許多方法之後,詢問 Dell 原廠客服人員,Dell 原廠表示有可能是因為「PCI 插槽」問題所導致的錯誤,這台 Dell Optiplex 755 除了內建網路卡之外,另外還多加了二片 Intel Pro 1000 網卡,運作一陣子也都很 OK!!

但是,此次將這二片 Intel 網路卡先拔除後,再進行測試居然就可以順利開機了!! (驚!! 那之前運作個把月是運氣太好?)。

此外在 Dell Desktop General Hardware Forum - IO CARD PARITY INTERRUPT AT 6000:1D52 中也有人提問,剛好有遇到此問題的朋友可以參考看看。(請尊重 Weithenn 的辛勞!!)

前言

本文將說明及實作,到 Dell 官方網站下載 Dell Latitude E6220 的 Windows 7 Driver CAB 驅動程式包之後,該如何進行後續的安裝作業。

安裝及設定

請依照下列操作步驟,為 Dell Latitude E6220 下載 Windows 7 Driver CAB 驅動程式包並安裝。

1. 請先至 Dell Driver CAB files for Enterprise Client OS Deployment ,下載符合您作業系統的 Driver CAB,此實作為下載 Windows 7 System CAB。

2. 接著下載 Windows XP SP2 Support Tools,透過 Support Tools 內含的工具 Microsoft - CAB Management Tool(cabArc.exe) ,或者是 Extract Utility(extract.exe) 之後準備進行 CAB Driver 解壓縮的動作。

採用 CAB Management Tool 工具的話,解壓縮方式為:
cabArc.exe -p x <cab file path> *.* <output path>

採用 Extract Utility 工具的話,解壓縮方式為:(請尊重 Weithenn 的辛勞!!)
extract /Y /E <cab-file-name>

3. 最後便可以使用解壓縮後的相關檔案,來安裝 Dell Latitude E6220 所需的 Windows 7 驅動程式。

Q.Dell PowerEdge R210 II 無法安裝 CentOS 6.0?

Error Message:
拿到的機器 Dell PowerEdge R210 II 無法順利安裝 CentOS 6.0 (不管 32bit 或 64bit),當放入 CentOS 安裝光碟,看到 CentOS 安裝畫面時還沒進到 Anaconda 安裝程序,在硬體偵測程序階段時,就會出現下面錯誤訊息而且是 死機 的狀態?? (嘗試使用文字模式安裝也是一樣的死機狀況!!)
 Initializing cgroup subsys cpuacct
 Initializing cgroup subsys memory
 Initializing cgroup subsys devices
 Initializing cgroup subsys freezer
 Initializing cgroup subsys net_cls
 Initializing cgroup subsys blkio
 CPU: Physical Processor ID: 0
 CPU: Processor Core ID: 0
 mce: CPU supports 7 MCE banks
 using mwait in idle threads.
 Performance Events: PEBS fmt1+, generic architected perfmon, Intel PMU driver.
 ... version:               3
 ... bit width:             48
 ... generic registers:     4
 ... value mask:            0000fffffffffff
 ... max period:            000000007ffffff
 ... fixed-purpose events:  3
 ... event mask:            00000007000000f
 ACPI: Core revision 20090903
 ftrace: converting mcount calls to 0f 1f 44 00 00
 ftrace: allocating 20276 entries in 80 pages
 Setting APIC routing to flat
 ..TIMER: vector=0x30 apic1=0 pin1=2 apic2=-1 pin2=-1
 CPU0: Intel(R) Core(TM) i3-2120 CPU @ 3.30GHz stepping 07
 Booting Node 0, Processors  #1

Ans:
查詢了 Dell 網站上的文章 Operating System Support Matrix for Dell PowerEdge Systems,確認 Dell R210 主機是有支援 RHEL 6.0,所以照理來說安裝 CentOS 6.0 應該也沒問題才對,但卻連到進到 Anaconda 安裝程序都不行,而這段文字看起來就是 CPU 的問題而卡住,於是就調整 BIOS 中 CPU 的設定。

1. 將 HT 功能 Disabled
嘗試將 BIOS 中 CPU 項目內的 Logical Processor 功能 (其實就是 HT 功能) ,設定為給 Disabled 之後情況並沒有好轉,變成只要到這個畫面之後就自動重新啟動。(請尊重 Weithenn 的辛勞!!)

2. 將 Intel VT 功能 Enabled
嘗試將 BIOS 中 CPU 項目內,關於虛擬化技術 VT (Virtualization Technology) 功能給 Enabled (出廠預設是 Disabled) 之後,居然 CentOS 6.0 就可以正常安裝,並且安裝後也運作無誤!!

照理說 Intel VT 虛擬化技術,應該是要採用 Hypervisor 架構 (如安裝 VMware vSphere ESXi 或 Microsoft Hyper-V、Citrix XenServer...等)才會需要啟動才對。但是,此次的狀況是不開啟該功能 CentOS 6.0 就無法安裝,詢問 Dell 原廠所得到的回答居然是 R210 不支援 CentOS 6.0 作業系統!! (客服人員可能不知道 RHEL 及 CentOS 的微妙關系吧?)。

前言

Dell PowerEdge 伺服器的 IPMI 遠端管理機制,便稱之為 DRAC (Dell DRAC - Wikipedia, the free encyclopedia),Dell PowerEdge R610 伺服器的 Remote Management 機制稱之為 iDRAC (Dell Remote Access Controller 6),那麼該如何進行設定呢? 本文將說明及實作,如何設定 Dell PowerEdge R610 伺服器的 iDRAC。

安裝及設定

詳細資訊請參考 Dell - Manuals and Documents for iDRAC6 for Monolithic Servers Version 1.5 文件,以下將簡述及操作方式:

1. 開機時按下【Ctrl + E】組合鍵,進入 BIOS 設定畫面,選擇【Lan Parameters】 >> 【IPv4 address】 進入之後,便可以設定 iDRAC 的網路卡 (IP Address、Netmask、Gateway)的網路資訊。

2. 設定完成之後,即可透過瀏覽器連結所設定的 iDRAC IP Address (連線會自動由 HTTP 導向至 HTTPs),預設登入的管理帳號為「root」,而管理密碼為 「calvin」。(請尊重 Weithenn 的辛勞!!)

3. 登入後便可以切換各項目,查看伺服器的健康情況並進行相關設定。

補充!! 

若 iDRAC 網路卡燈號一直都沒有亮時,那麼您可以進入設定畫面後選擇 Reset to Default ,再次初始化 iDRAC 後應可恢復正常 (網卡燈號正常)。

1、前言

本文將使用 Dell SSM (SAS RAID Storage Manager) ,以便在圖形模式 (X-Win) 下很方便的查看目前伺服器的 RAID 狀態,以及 HDD 的健康狀況。(請尊重 Weithenn 的辛勞!!)

文章目錄

1、前言
2、實作環境
3、安裝及設定
          步驟1.安裝 compat-libstdc++-33
          步驟2.下載 SSM_2.08_linux.tar.gz、解壓縮、安裝
          步驟3.啟動 Dell SAS RAID Storage Manager
4、參考
5、Me FAQ
          Q1.libstdc++.so.5: cannot open shared object file: No such file or directory?
          Q2.安裝 SSM_linux_installer-2.16-01_CPG.tar.gz 後找不到啟動 icon?
          Q3.在 CentOS 6.2 執行 ./install.sh 時發生錯誤無法繼續?
          Q4.在 CentOS 6.2 (64 位元)執行 ./startupui.sh 時,發生錯誤無法呼叫出 SSM (缺少 libXt.so.6)?
          Q5.在 CentOS 6.2 (32位元)執行 ./startupui.sh 時,發生錯誤無法呼叫出 SSM (缺少 libXtst.so.6)?

2、實作環境

  • CentOS 5.1 (Linux 2.6.18-53.el5)
  • Dell PowerEdge 1950 (請尊重 Weithenn 的辛勞!!)
  • Dell RAID Controller PERC 5/i、6/i、H700 (Raid Card)
  • scsi0 : LSI Logic SAS based MegaRAID driver
  • SAS HDD 73 G * 2 (Build RAID-1)
  • Dell SAS RAID Storage Manager (SSM_2.08_linux.tar.gz)

3、安裝及設定

Dell SAS RAID Storage Manager 在 ftp1.us.dell.com - /sysman/ 內有有四個版本我測試後有二個版本是可安裝成功並且順利叫出管理介面,以下是各版本的測試結果及狀況。
  • SSM_Linux_1.18-00.tar.gz:安裝完成、點選 UI 跑一跑後執行序 (Process) 就不見了?
  • SSM_2.08_linux.tar.gz:安裝完成、點選 UI 可正確顯示管理介面 (需安裝 compat-libstdc++-33)
  • SSM_linux_installer-2.16-01_CPG.tar.gz:安裝完成、無啟動 UI icon 但可透過執行 shell 方式啟動
  • SSM_linux_installer-2.16-01_ESG.tar.gz:無法順利安裝

測試上述各版本後發現 SSM_2.08_linux.tar.gz 最 OK,所以下面的安裝步驟就以 SSM_2.08_linux.tar.gz 做說明。

步驟1.安裝 compat-libstdc++-33

由於我們安裝的是 SSM_2.08_linux.tar.gz,但 CentOS 5.1 為 libstdc++.so.6 所以我們必須安裝 compat-libstdc++-33 (libstdc++.so.5),否則等一下安裝 SSM_2.08_linux.tar.gz 將無法順利安裝,若不想裝 compat-libstdc++-33 那就安裝 SSM_linux_installer-2.16-01_CPG.tar.gz 只是安裝後沒有 icon 來啟動必須手動去執行(/usr/local/Dell SAS RAID Storage Manager/startupui.sh) 來啟動 SSM。
#yum install compat-libstdc++-33
#ls /usr/lib/libstdc++*
 /usr/lib/libstdc++.so.5            //確定有此檔案
 /usr/lib/libstdc++.so.5.0.7
 /usr/lib/libstdc++.so.6
 /usr/lib/libstdc++.so.6.0.8

如果是使用 CentOS 6.2 作業系統版本請安裝如下三個套件,否則屆時執行 SSM 時會發生問題!!
#yum -y install compat-libstdc*
#yum -y install libXt.i686 libXtst.i686


步驟2.下載 SSM_2.08_linux.tar.gz、解壓縮、安裝

ftp1.us.dell.com - /sysman/ 下載 Dell SAS RAID Storage Manager (SSM_2.08_linux.tar.gz)。
#wget http://ftp1.us.dell.com/sysman/SSM_2.08_linux.tar.gz
解壓縮 SSM_2.08_linux.tar.gz,會建立 disk 資料夾裡面放著相關執行檔案。
#tar zxvf SSM_2.08_linux.tar.gz
 disk/
 disk/Dell_SAS_RAID_Storage_Manager-2.08-00.i386.rpm
 disk/readme.txt
 disk/deleteOldVersion.sh
 disk/libstdc++34-3.4.0-1.i386.rpm
 disk/install.sh
 disk/RunRPM.sh

執行安裝 Dell SAS RAID Storage Manager shell script。
#cd disk ; ./install.sh
 The provisions of Sections 2, 3, 4, 7, 8 and 9 shall survive any termination of this Agreement.
 Press Y to accept the License Agreement :Y        //鍵入 Y 表示同意版權宣告
 Starting complete installation of Dell SAS RAID Storage Manager 2.08-00.....
 Checking for any Old Version
 No Old Version Found
 Continuing with installation
 warning: libstdc++34-3.4.0-1.i386.rpm: Header V3 DSA signature: NOKEY, key ID 4f2a6fd2
        file /usr/lib/libstdc++.so.6 from install of libstdc++34-3.4.0-1  conflicts with file from package libstdc++-4.1.2-14.el5
 Installing  Dell_SAS_RAID_Storage_Manager-2.08-00
 Preparing...               ########################### [100%]
 Installing....
    1:Dell_SAS_RAID_Storage_M######################### [100%]
 Starting Framework:
 Starting Monitor: /
 set: KEY=INSTALLER_VERSION   VAL=v2.08-00
 /


步驟3.啟動 Dell SAS RAID Storage Manager

啟動 Dell SAS RAID Storage Manager,記得要擁有 Full Access 權限必須要 root 帳號、密碼登入才行哦。(請尊重 Weithenn 的辛勞!!)


4、參考


5、Me FAQ

Q1.libstdc++.so.5: cannot open shared object file: No such file or directory?

Error Message:
安裝 SSM_2.08_linux.tar.gz 時顯示如下錯誤訊息說找不到 libstdc++.so.5。
#./install.sh
 Press Y to accept the License Agreement :Y
 Starting complete installation of Dell SAS RAID Storage Manager 2.08-00.....
 Checking for any Old Version
 No Old Version Found
 Continuing with installation
 warning: libstdc++34-3.4.0-1.i386.rpm: Header V3 DSA signature: NOKEY, key ID 4f2a6fd2
        file /usr/lib/libstdc++.so.6 from install of libstdc++34-3.4.0-1  conflicts with file from package libstdc++-4.1.2-14.el5
 Installing  Dell_SAS_RAID_Storage_Manager-2.08-00
 Preparing...               ############################ [100%]
 Installing....
    1:Dell_SAS_RAID_Storage_M################### [100%]
 Starting Framework:
 Starting Monitor: ./popup_bin: error while loading shared libraries:  libstdc++.so.5: cannot open shared object file: No such file or directory
 /
 set: KEY=INSTALLER_VERSION   VAL=v2.08-00
 /

Ans:
原因為 CentOS 5.1 為 libstdc++.so.6 而 SSM_2.08_linux.tar.gz 需要的是 libstdc++.so.5,所以當然就發生找不到檔案的問題了,可以安裝 compat-libstdc++-33 套件來產生 libstdc++.so.5;或是安裝 SSM_linux_installer-2.16-01_CPG.tar.gz 只是安裝後沒有 icon 來啟動 SSM 必須手動去執行(/usr/local/Dell SAS RAID Storage Manager/startupui.sh) 來啟動 SSM。
#yum install compat-libstdc++-33
#ls /usr/lib/libstdc++*
 /usr/lib/libstdc++.so.5            //確定有此檔案
 /usr/lib/libstdc++.so.5.0.7
 /usr/lib/libstdc++.so.6
 /usr/lib/libstdc++.so.6.0.8


Q2.安裝 SSM_linux_installer-2.16-01_CPG.tar.gz 後找不到啟動 icon?

Error Message:
安裝 SSM_linux_installer-2.16-01_CPG.tar.gz 後在 System 找不到啟動 Dell SAS RAID Storage Manager 的 icon 那該怎麼啟動?

Ans:
在 X-Win 環境下執行啟動 Dell SAS RAID Storage Manager 的 Shell script 即可。
#/usr/local/Dell SAS RAID Storage Manager/startupui.sh

Q3.在 CentOS 6.2 執行 ./install.sh 時發生錯誤無法繼續?

Error Message:
在 CentOS 6.2 下執行 ./install.sh 準備安裝 SSM 時發生如下錯誤訊息:
 error: Failed dependencies:
        libc.so.6 is needed by libstdc++34-3.4.0-1.i386
        libc.so.6(GLIBC_2.0) is needed by libstdc++34-3.4.0-1.i386
        libc.so.6(GLIBC_2.1) is needed by libstdc++34-3.4.0-1.i386
        libc.so.6(GLIBC_2.1.3) is needed by libstdc++34-3.4.0-1.i386
        libc.so.6(GLIBC_2.2) is needed by libstdc++34-3.4.0-1.i386
        libc.so.6(GLIBC_2.3) is needed by libstdc++34-3.4.0-1.i386
        libgcc_s.so.1 is needed by libstdc++34-3.4.0-1.i386
        libgcc_s.so.1(GCC_3.0) is needed by libstdc++34-3.4.0-1.i386
        libgcc_s.so.1(GCC_3.3) is needed by libstdc++34-3.4.0-1.i386
        libgcc_s.so.1(GLIBC_2.0) is needed by libstdc++34-3.4.0-1.i386
        libm.so.6 is needed by libstdc++34-3.4.0-1.i386
 RPM Installation Failed

Ans:
執行如下指令安裝相關所需套件即可。
#yum -y install compat-libstdc*

Q4.在 CentOS 6.2 (64 位元)執行 ./startupui.sh 時,發生錯誤無法呼叫出 SSM (缺少 libXt.so.6)?

Error Message:
安裝好 SSM 之後執行點選 SSM 執行圖示沒反應,利用指令執行 ./startupui.sh 時發生如下錯誤訊息說找不到 libXt.so.6
#/usr/local/Dell\ SAS\ RAID\ Storage\ Manager/startupui.sh
  Exception in thread "main" java.lang.UnsatisfiedLinkError: /usr/local/Dell SAS RAID Storage
  Manager/jre/lib/i386/libawt.so: libXt.so.6: cannot open shared object file: No such file or directory
        at java.lang.ClassLoader$NativeLibrary.load(Native Method)
        at java.lang.ClassLoader.loadLibrary0(Unknown Source)
        at java.lang.ClassLoader.loadLibrary(Unknown Source)
        at java.lang.Runtime.loadLibrary0(Unknown Source)
        at java.lang.System.loadLibrary(Unknown Source)
        at sun.security.action.LoadLibraryAction.run(Unknown Source)
        at java.security.AccessController.doPrivileged(Native Method)
        at sun.awt.NativeLibLoader.loadLibraries(Unknown Source)
        at sun.awt.DebugHelper.<clinit>(Unknown Source)
        at java.awt.Component.<clinit>(Unknown Source)

Ans:
使用如下指令便可知道 libXt.so.6 檔案是由哪個套件所提供。
#yum whatprovides /usr/lib/libXt.so.6
  Loaded plugins: fastestmirror, refresh-packagekit, security
  Loading mirror speeds from cached hostfile
   * base: centos.tt.co.kr
   * extras: ftp.cs.pu.edu.tw
   * updates: centos.tt.co.kr
  libXt-1.0.7-1.el6.i686 : X.Org X11 libXt runtime library
  Repo        : base
  Matched from:
  Filename    : /usr/lib/libXt.so.6

但是您若直接打 libXt 進行安裝的話,會得到套件已經安裝的訊息,因為使用的 CentOS 6.2 為 64 位元,所以若直接打 libXt 其實是安裝 64 位元的檔案,也就是安裝在 /usr/lib64/libXt.so.6 之下,而不是本次錯誤中所需要的 /usr/lib/libXt.so.6
#yum -y install libXt         //這樣會是裝 64 位元 (/usr/lib64)
  Loaded plugins: fastestmirror, refresh-packagekit, security
  Loading mirror speeds from cached hostfile
   * base: centos.tt.co.kr
   * extras: ftp.cs.pu.edu.tw
   * updates: centos.tt.co.kr
  Setting up Install Process
  Package libXt-1.0.7-1.el6.x86_64 already installed and latest version
  Nothing to do

安裝的套件名稱應該是 libXt.i686 這樣一來才會是安裝 /usr/lib/libXt.so.6 及相關檔案。
#yum -y install libXt.i686   //這樣才是裝 32 位元 (/usr/lib)

Q5.在 CentOS 6.2 (32位元)執行 ./startupui.sh 時,發生錯誤無法呼叫出 SSM (缺少 libXtst.so.6)?

Error Message:
安裝好 SSM 之後執行點選 SSM 執行圖示沒反應,利用指令執行 ./startupui.sh 時發生如下錯誤訊息說找不到 libXtst.so.6。
#/usr/local/Dell\ SAS\ RAID\ Storage\ Manager/startupui.sh
  Exception in thread "main" java.lang.UnsatisfiedLinkError: /usr/local/Dell SAS RAID Storage
  Manager/jre/lib/i386/libawt.so: libXtst.so.6: cannot open shared object file: No such file or directory
        at java.lang.ClassLoader$NativeLibrary.load(Native Method)
        at java.lang.ClassLoader.loadLibrary0(Unknown Source)
        at java.lang.ClassLoader.loadLibrary(Unknown Source)
        at java.lang.Runtime.loadLibrary0(Unknown Source)
        at java.lang.System.loadLibrary(Unknown Source)
        at sun.security.action.LoadLibraryAction.run(Unknown Source)
        at java.security.AccessController.doPrivileged(Native Method)
        at sun.awt.NativeLibLoader.loadLibraries(Unknown Source)
        at sun.awt.DebugHelper.<clinit>(Unknown Source)
        at java.awt.Component.<clinit>(Unknown Source)

Ans:
跟上個問題相同,請安裝 32 位元的套件即可包含 libXtst.so.6 檔案。
#yum -y install libXtst.i686

1、前言

新採購的 Dell R310 配備的 RAID Card 為 PERC H200,使用此工具後可以在文字模式 (Command Line) 下很方便的查看目前 RAID 及 HDD 狀態。(請尊重 Weithenn 的辛勞!!)

文章目錄

1、前言
2、實作環境
3、安裝及設定
          步驟1.下載 sas2ircu
          步驟2.給予執行檔案權限
          步驟3.了解 RAID 顯示狀態相關名詞
          步驟4.了解 RAID 運作中、損壞、重建 狀態
4、參考

2、實作環境

  • CentOS 6.2 (64 位元) 2.6.32-220.el6.x86_64
  • 伺服器硬體型號: Dell PowerEdge R310
  • 硬碟規格: SATA III HDD 500GB * 2 (Build RAID-1)
  • 磁碟陣列卡型號: Dell PERC H200A Adapter RAID Controller
  • mpt2sas0: Dell PERC H200 Adapter (請尊重 Weithenn 的辛勞!!)
  • sas2ircu: FAQ_9633_SAS2IRCU_Phase_5.0-5.00.00.00.zip

3、安裝及設定

在開始進行設定以前,再次確認一下目前的 RAID Card 是否為此型號。(請尊重 Weithenn 的辛勞!!)
#lspci -nn |grep LSI
 05:00.0 Serial Attached SCSI controller [0107]: LSI Logic / Symbios Logic SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] [1000:0072] (rev 03)


步驟1.下載 sas2ircu

Supermicro 下載中心 下載 FAQ_9633_SAS2IRCU_Phase_5.0-5.00.00.00.zip。
#wget http://www.supermicro.com/support/faqs/data_lib/FAQ_9633_SAS2IRCU_Phase_5.0-5.00.00.00.zip
下載完成後進行解壓縮的動作,此壓縮檔案中包含各種作業系統適用的執行檔如 DOS、Linux、Solaris、Windows ...等。
#unzip FAQ_9633_SAS2IRCU_Phase_5.0-5.00.00.00.zip
  Archive:  FAQ_9633_SAS2IRCU_Phase_5.0-5.00.00.00.zip
   creating: sas2ircu_dos_rel/
  inflating: sas2ircu_dos_rel/sas2ircu.exe
   creating: sas2ircu_efi_ebc_rel/
  inflating: sas2ircu_efi_ebc_rel/sas2ircu.efi
   creating: sas2ircu_linux_ppc64_rel/
  inflating: sas2ircu_linux_ppc64_rel/sas2ircu
   creating: sas2ircu_linux_x86_rel/
  inflating: sas2ircu_linux_x86_rel/sas2ircu
   creating: sas2ircu_solaris_sparc_rel/
  inflating: sas2ircu_solaris_sparc_rel/sas2ircu
   creating: sas2ircu_solaris_x86_rel/
  inflating: sas2ircu_solaris_x86_rel/sas2ircu
   creating: sas2ircu_win_x64_rel/
  inflating: sas2ircu_win_x64_rel/sas2ircu.exe
   creating: sas2ircu_win_x86_rel/
  inflating: sas2ircu_win_x86_rel/sas2ircu.exe


步驟2.給予執行檔案權限

解壓縮後的檔案可立即使用,但是預設檔案權限為 444 因此必須給予執行權限,並且複製到系統執行目錄下以便執行。
#cd sas2ircu_linux_x86_rel       //切換到 Linux 執行檔存放目錄
#chmod 755 sas2ircu               //給予檔案執行權限
#cp sas2ircu /usr/local/sbin/    //複製到系統執行目錄下
#sas2ircu LIST                     //查看 RAID 資訊
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
        Adapter   Vendor  Device                   SubSys  SubSys
 Index  Type      ID      ID      Pci Address      Ven ID  Dev ID
 -----  --------  ------  ------  ---------------  ------  ------
    0   SAS2008   1000h   72h     00h:05h:00h:00h  1028h   1f1dh
SAS2IRCU: Utility Completed Successfully.


步驟3.了解 RAID 顯示狀態相關名詞

在開始使用 sas2ircu 之前有些名詞我們必須先了解,這樣之後觀看上才不致有困惑的情況發生。

IR Volume: 虛擬硬碟,多顆硬碟組合起來的虛擬硬碟,簡單說就是 RAID
  • Okay: RAID 目前狀態為 正常 (最優)
  • Degraded: RAID 目前狀態為 不正常 (退化、降級)

Physical device: 實體硬碟,簡單說就是主機上有幾顆硬碟
  • Optimal: 實體硬碟目前狀態為 正常
  • Missing: 實體硬碟目前狀態為 不正常 (失敗、未設定)
  • Rebuilding: 實體硬碟目前狀態為 重建中

以下表格為當主機硬碟正常時、發生損壞時其 VD 及 PD 的狀態

步驟4.了解 RAID 運作中、損壞、重建 狀態

當 RAID 運作正常時 執行結果如下,可看到 IR Volume 狀態為 Okay,而 Physical device (有 2 顆) 狀態為 Optimal
#sas2ircu 0 DISPLAY          //查詢詳細資訊
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
  Read configuration has been initiated for controller 0
  ------------------------------------------------------------------------
  Controller information
  ------------------------------------------------------------------------
    Controller type                : SAS2008
    BIOS version                   : 7.11.10.00
    Firmware version               : 7.15.08.00
    Channel description            : 1 Serial Attached SCSI
    Initiator ID                   : 0
    Maximum physical devices       : 39
    Concurrent commands supported  : 2607
    Slot                           : 2
    Segment                        : 0
    Bus                            : 5
    Device                         : 0
    Function                       : 0
    RAID Support                   : Yes
  ------------------------------------------------------------------------
  IR Volume information
  ------------------------------------------------------------------------
  IR volume 1
    Volume ID                      : 79
    Status of volume               : Okay (OKY)
    RAID level                     : RAID1
    Size (in MB)                   : 476416
    Physical hard disks            :
    PHY[0] Enclosure#/Slot#        : 1:0
    PHY[1] Enclosure#/Slot#        : 1:1
  ------------------------------------------------------------------------
  Physical device information
  ------------------------------------------------------------------------
  Initiator at ID #0
  Device is a Hard disk
    Enclosure #                    : 1
    Slot #                         : 0
    State                          : Optimal (OPT)
    Size (in MB)/(in sectors)      : 476940/976773167
    Manufacturer                   : ATA
    Model Number                   : ST500NM0011
    Firmware Revision              : PA07
    Serial No                      : Z1M0BB5K
    Protocol                       : SATA
    Drive Type                     : SATA_HDD
  Device is a Hard disk
    Enclosure #                    : 1
    Slot #                         : 1
    State                          : Optimal (OPT)
    Size (in MB)/(in sectors)      : 476940/976773167
    Manufacturer                   : ATA
    Model Number                   : ST500NM0011
    Firmware Revision              : PA07
    Serial No                      : Z1M0NEFS
    Protocol                       : SATA
    Drive Type                     : SATA_HDD
  ------------------------------------------------------------------------
  Enclosure information
  ------------------------------------------------------------------------
    Enclosure#                     : 1
    Logical ID                     : 5d4ae520:9a234600
    Numslots                       : 8
    StartSlot                      : 0
  ------------------------------------------------------------------------
  SAS2IRCU: Command DISPLAY Completed Successfully.
  SAS2IRCU: Utility Completed Successfully.

或者使用如下指令查詢概要資訊
#sas2ircu 0 STATUS
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
  Background command progress status for controller 0...
  IR Volume 1
    Volume ID                      : 79
    Current operation              : None
    Volume status                  : Enabled
    Volume state                   : Optimal
    Physical disk I/Os             : Not quiesced
  SAS2IRCU: Command STATUS Completed Successfully.
  SAS2IRCU: Utility Completed Successfully.

當有硬碟損壞時

一顆硬碟拔掉 (模擬硬碟損壞) 時可看到訊息如下,可看到 IR Volume 狀態為 Degraded,而 Physical device 損壞的狀態為 Missing(請尊重 Weithenn 的辛勞!!)
#sas2ircu 0 DISPLAY
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
  Read configuration has been initiated for controller 0
  ------------------------------------------------------------------------
  Controller information
  ------------------------------------------------------------------------
    Controller type                 : SAS2008
    BIOS version                    : 7.11.10.00
    Firmware version                : 7.15.08.00
    Channel description             : 1 Serial Attached SCSI
    Initiator ID                    : 0
    Maximum physical devices        : 39
    Concurrent commands supported   : 2607
    Slot                            : 2
    Segment                         : 0
    Bus                             : 5
    Device                          : 0
    Function                        : 0
    RAID Support                    : Yes
  ------------------------------------------------------------------------
  IR Volume information
  ------------------------------------------------------------------------
  IR volume 1
    Volume ID                       : 79
    Status of volume                : Degraded (DGD)
    RAID level                      : RAID1
    Size (in MB)                    : 476416
    Physical hard disks             :
    PHY[0] Enclosure#/Slot#         : 1:1
    PHY[1] Enclosure#/Slot#         : 0:0
  ------------------------------------------------------------------------
  Physical device information
  ------------------------------------------------------------------------
  Initiator at ID #0
  Device is a Hard disk
    Enclosure #                     : 0
    Slot #                          : 0
    State                           : Missing (MIS)
    Manufacturer                    : ATA
    Model Number                    : ST500NM0011
    Firmware Revision               : PA07
    Serial No                       : Z1M0BB5K
    Drive Type                      : Undetermined
  Device is a Hard disk
    Enclosure #                     : 1
    Slot #                          : 1
    State                           : Optimal (OPT)
    Size (in MB)/(in sectors)       : 476940/976773167
    Manufacturer                    : ATA
    Model Number                    : ST500NM0011
    Firmware Revision               : PA07
    Serial No                       : Z1M0NEFS
    Protocol                        : SATA
    Drive Type                      : SATA_HDD
  ------------------------------------------------------------------------
  Enclosure information
  ------------------------------------------------------------------------
    Enclosure#                      : 1
    Logical ID                      : 5d4ae520:9a234600
    Numslots                        : 8
    StartSlot                       : 0
  ------------------------------------------------------------------------
  SAS2IRCU: Command DISPLAY Completed Successfully.
  SAS2IRCU: Utility Completed Successfully.

而概要資訊則顯示如下
#sas2ircu 0 STATUS
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
  Background command progress status for controller 0...
  IR Volume 1
    Volume ID                       : 79
    Current operation               : None
    Volume status                   : Enabled
    Volume state                    : Degraded
    Physical disk I/Os              : Not quiesced
  SAS2IRCU: Command STATUS Completed Successfully.
  SAS2IRCU: Utility Completed Successfully.

更換硬碟進行重建時

插入新 HDD 進行 重建 (Rebuild) 時,可以看到 IR Volume 狀態仍然為 Degraded,而 Physical device 重建的狀態為 Rebuilding
#sas2ircu 0 DISPLAY
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
  Read configuration has been initiated for controller 0
  ------------------------------------------------------------------------
  Controller information
  ------------------------------------------------------------------------
    Controller type                    : SAS2008
    BIOS version                       : 7.11.10.00
    Firmware version                   : 7.15.08.00
    Channel description                : 1 Serial Attached SCSI
    Initiator ID                       : 0
    Maximum physical devices           : 39
    Concurrent commands supported      : 2607
    Slot                               : 2
    Segment                            : 0
    Bus                                : 5
    Device                             : 0
    Function                           : 0
    RAID Support                       : Yes
  ------------------------------------------------------------------------
  IR Volume information
  ------------------------------------------------------------------------
  IR volume 1
    Volume ID                          : 79
    Status of volume                   : Degraded (DGD)
    RAID level                         : RAID1
    Size (in MB)                       : 476416
    Physical hard disks                :
    PHY[0] Enclosure#/Slot#            : 1:1
    PHY[1] Enclosure#/Slot#            : 1:0
  ------------------------------------------------------------------------
  Physical device information
  ------------------------------------------------------------------------
  Initiator at ID #0
  Device is a Hard disk
    Enclosure #                        : 1
    Slot #                             : 0
    State                              : Rebuilding (RBLD)
    Size (in MB)/(in sectors)          : 476940/976773167
    Manufacturer                       : ATA
    Model Number                       : ST500NM0011
    Firmware Revision                  : PA07
    Serial No                          : Z1M0BB5K
    Protocol                           : SATA
    Drive Type                         : SATA_HDD
 Device is a Hard disk
    Enclosure #                        : 1
    Slot #                             : 1
    State                              : Optimal (OPT)
    Size (in MB)/(in sectors)          : 476940/976773167
    Manufacturer                       : ATA
    Model Number                       : ST500NM0011
    Firmware Revision                  : PA07
    Serial No                          : Z1M0NEFS
    Protocol                           : SATA
    Drive Type                         : SATA_HDD
  ------------------------------------------------------------------------
  Enclosure information
  ------------------------------------------------------------------------
    Enclosure#                         : 1
    Logical ID                         : 5d4ae520:9a234600
    Numslots                           : 8
    StartSlot                          : 0
  ------------------------------------------------------------------------
  SAS2IRCU: Command DISPLAY Completed Successfully.
  SAS2IRCU: Utility Completed Successfully.

而概要資訊則顯示如下(請尊重 Weithenn 的辛勞!!)
#sas2ircu 0 STATUS
  LSI Corporation SAS2 IR Configuration Utility.
  Version 5.00.00.00 (2010.02.09)
  Copyright (c) 2009 LSI Corporation. All rights reserved.
  Background command progress status for controller 0...
  IR Volume 1
    Volume ID                        : 79
    Current operation                : Synchronize
    Volume status                    : Enabled
    Volume state                     : Degraded
    Physical disk I/Os               : Not quiesced
    Volume size (in sectors)         : 975699968
    Number of remaining sectors : 962808320   //還剩多少資料未同步完成
    Percentage complete         : 1.32%       //重建進度百分比 
  SAS2IRCU: Command STATUS Completed Successfully.
  SAS2IRCU: Utility Completed Successfully.


4、參考

1、前言

使用 SAS MegaRAID Linux MegaCLI 可以在文字模式 (Command Line) 下很方便的查看目前 RAID 及 HDD 狀態。(請尊重 Weithenn 的辛勞!!)

文章目錄

1、前言
2、實作環境
3、安裝及設定
          步驟1.下載 MegaCli (擇一下載即可)
          步驟2.安裝 MegaCli RPM (對照剛才下載的版本安裝)
          步驟3.了解 Dell RAID 相關名詞
          步驟4.開始使用 MegaCli 指令
          步驟5.撰寫 MegaCli Script
          步驟6.MegaCli Script 測試
4、參考
5、Me FAQ
          Q1.smartd[2687]: Device: /dev/sda, Bad IEC (SMART) mode page, err=2, skip device?

2、實作環境

  • CentOS 5.x (請尊重 Weithenn 的辛勞!!)
  • 主機硬體型號:Dell PowerEdge 1950
  • 硬碟規格:SAS HDD 146 G * 2 (Build RAID-1)
  • 磁碟陣列卡型號:Dell RAID Controller PERC 5/i (scsi0 : LSI Logic SAS based MegaRAID driver)
  • 2.00.12_Linux_Cli.zip (MegaCli-2.00.12-1.i386.rpm)
  • 1.01.39_Linux_Cli.zip (MegaCli-1.01.39-0.i386.rpm)

3、安裝及設定

步驟1.下載 MegaCli (擇一下載即可)

下載 MegaCLI 1.x 版 (1.01.39_Linux_Cli.zip),請至 LSI Corporation 下載 1.01.39_Linux_Cli.zip
#wget http://www.lsi.com/support/downloads/megaraid/miscellaneous/linux/1.01.39_Linux_Cli.zip
解壓縮 1.01.39_Linux_Cli.zip
#unzip 1.01.39_Linux_Cli.zip
 Archive:  1.01.39_Linux_Cli.zip
   inflating: MegaCli-1.01.39-0.i386.rpm
   inflating: 1.01.39_Linux_Cli.txt

下載 MegaCLI 2.x 版 (2.00.12_Linux_Cli.zip),請至  LSI Corporation 下載 2.00.12_Linux_Cli.zip
#wget http://www.lsi.com/DistributionSystem/AssetDocument/support/downloads/megaraid/miscellaneous/linux/2.00.12_Linux_Cli.zip
解壓縮 2.00.12_Linux_Cli.zip
#unzip 2.00.12_Linux_Cli.zip
 Archive:  2.00.12_Linux_Cli.zip
  extracting: MegaCliLin.zip
   inflating: 2.00.12_Linux_Cli.txt

解壓縮 MegaCliLin.zip
#unzip MegaCliLin.zip
 Archive:  MegaCliLin.zip
   inflating: MegaCli-2.00.12-1.i386.rpm


步驟2.安裝 MegaCli RPM (對照剛才下載的版本安裝)

安裝 MegaCli-1.01.39-0.i386.rpm
#rpm -ivh MegaCli-1.01.39-0.i386.rpm
 Preparing...                ############################### [100%]
    1:MegaCli                ############################### [100%]

安裝 MegaCli-2.00.12-1.i386.rpm
#rpm -ivh MegaCli-2.00.12-1.i386.rpm
 Preparing...                ################################## [100%]
    1:MegaCli                ################################## [100%]


步驟3.了解 Dell RAID 相關名詞

在開始使用 MegaCli 之前有些名詞我們必須先了解(請尊重 Weithenn 的辛勞!!)

Virtual Drive (VD):虛擬硬碟,多顆硬碟組合起來的虛擬硬碟,簡單說就是 RAID
  • VD State Optimal:RAID 目前狀態為正常 (最優)
  • VD State Degraded:RAID 目前狀態為不正常 (退化、降級)

Physical Drive (PD):實體硬碟,簡單說就是主機上有幾顆硬碟
  • PD State Online:實體硬碟目前狀態為正常
  • PD State Fail、Unconfigured:實體硬碟目前狀態為不正常 (失敗、未設定)
  • PD State Rebuild:實體硬碟目前狀態為重建中

以下表格為當主機硬碟正常時、發生損壞時其 VD 及 PD 的狀態。

步驟4.開始使用 MegaCli 指令

查看 RAID 狀態指令 (32 bit)
#/opt/MegaRAID/MegaCli/MegaCli -cfgdsply -aALL       //查看 Raid Card 型號、Disk 相關資訊
#/opt/MegaRAID/MegaCli/MegaCli -AdpAllInfo -aALL   //關於 Raid Card 功能詳細內容


查看 RAID 狀態指令 (64 bit)
#/opt/MegaRAID/MegaCli/MegaCli64 -cfgdsply -aALL     //查看 Raid Card 型號、Disk 相關資訊
#/opt/MegaRAID/MegaCli/MegaCli64 -AdpAllInfo -aALL   //關於 Raid Card 功能詳細內容


步驟5.撰寫 MegaCli Script

因為 MegaCli 指令執行後會出來非常詳細的資訊,不過我最主要是想看 VD 及 PD 的狀態而以,所以就寫個簡單的 Shell Script 只抓我要看的資訊(有需要就參考看看吧),如果作業系統為 32 bit 則指令為 MegaCli,若作業系統為 64 bit 則指令為 MegaCli64
#!/bin/sh
#$Id: check_perc5i.sh, v0.2 2008/4/15 weithenn Exp $
#Check RAID Card PERC 5/i VD and PD State
#CentOS 32 bit use command MegaCli
#CentOS 64 bit use command MegaCli64
HOSTNAME=`/bin/hostname`
CARD=`/opt/MegaRAID/MegaCli/MegaCli -AdpAllInfo -aALL |grep "Product Name" | cut -d ':' -f2`
VDSTATE1=`/opt/MegaRAID/MegaCli/MegaCli -cfgdsply -aALL | grep "State"`
VDSTATE2=`/opt/MegaRAID/MegaCli/MegaCli -AdpAllInfo -aALL | grep "Degraded"`
VDSTATE3=`/opt/MegaRAID/MegaCli/MegaCli -AdpAllInfo -aALL | grep "  Offline"`
PDSTATE1=`/opt/MegaRAID/MegaCli/MegaCli -cfgdsply -aALL | grep "Online" | wc -l | sed 's/       //'`
PDSTATE2=`/opt/MegaRAID/MegaCli/MegaCli -cfgdsply -aALL | grep "Rebuild" | wc -l | sed 's/       //'`
PDSTATE3=`/opt/MegaRAID/MegaCli/MegaCli -AdpAllInfo -aALL | grep "Critical Disks"`
PDSTATE4=`/opt/MegaRAID/MegaCli/MegaCli -AdpAllInfo -aALL | grep "Failed Disks"`
echo "##### Host Informationi #####"
echo "Host              : $HOSTNAME"
echo "Raid Card         :$CARD"
echo ""
echo "##### Virtual Disk State #####"
echo "Virtual Disk $VDSTATE1"
echo "$VDSTATE2"
echo "$VDSTATE3"
echo ""
echo "##### Physical Disk State #####"
echo "Online Disk       : $PDSTATE1"
echo "Rebuild Disk      : $PDSTATE2"
echo "$PDSTATE3"
echo "$PDSTATE4"


步驟6.MegaCli Script 測試

上面的 Shell Script 再 RAID 正常時執行結果如下,可看到 VD 狀態為 Optimal,而 PD 狀態為 Online Disk 有 2 顆。
##### Host Informationi #####
Host              : dell.weithenn.org
Raid Card         : PERC 5/i Integrated
##### Virtual Disk State #####
Virtual Disk State: Optimal
  Degraded        : 0
  Offline         : 0
##### Physical Disk State #####
Online Disk       : 2
Rebuild Disk      : 0
  Critical Disks  : 0
  Failed Disks    : 0

一顆硬碟拔掉時 (模擬硬碟損壞) 訊息如下,可看到 VD 狀態由 Optimal 變成 Degraded,而 VD Disk 有 1 顆為 Degraded。(請尊重 Weithenn 的辛勞!!)
##### Host Informationi #####
Host                : dell.weithenn.org
Raid Card           : PERC 5/i Integrated
##### Virtual Disk State #####
Virtual Disk State  : Degraded
  Degraded          : 1
  Offline           : 0
##### Physical Disk State #####
Online Disk         : 2
Rebuild Disk        : 0
  Critical Disks    : 0
  Failed Disks      : 0

今天遇到的狀況有一顆 HDD 亮黃燈,可看到 VD 狀態還是 Optimal (因為那顆 HDD 還沒死,目前狀態為要死不死中),而 VD 中有 1 顆 Disk 狀態為 Critical。
##### Host Informationi #####
Host                : dell.weithenn.org
Raid Card           : PERC 5/i Integrated
##### Virtual Disk State #####
Virtual Disk State  : Optimal
  Degraded          : 0
  Offline           : 0
##### Physical Disk State #####
Online Disk         : 2
Rebuild Disk        : 0
  Critical Disks    : 1
  Failed Disks      : 0

插入新 HDD 在做 Rebuild 時 VD 狀態會由 Degraded 變回 Optimal,以下狀態為正在 Rebuild 中 2 顆 HDD (1 顆正常,1 顆重建中)。
##### Host Informationi #####
Host                : dell.weithenn.org
Raid Card           : PERC 5/i Integrated
##### Virtual Disk State #####
Virtual Disk State  : Degraded
  Degraded          : 1
  Offline           : 0
##### Physical Disk State #####
Physical Online     : 1
Physical Rebuild    : 1
  Critical Disks    : 0
  Failed Disks      : 0


4、參考


5、Me FAQ

Q1.smartd[2687]: Device: /dev/sda, Bad IEC (SMART) mode page, err=2, skip device?

Error Message:
今天看一下 /var/log/message 發現 smartd 的服務似乎無法抓到 Dell RAID Controller PERC 5/i 而發生錯誤,錯誤訊息如下
Apr 11 11:46:55 centos1 smartd[2687]: Device: /dev/sda, opened
Apr 11 11:46:55 centos1 smartd[2687]: Device: /dev/sda, Bad IEC (SMART) mode page, err=2, skip device
Apr 11 11:46:55 centos1 smartd[2687]: Unable to register SCSI device /dev/sda at line 32 of file /etc/smartd.conf

Ans:
Dell™ PowerEdge™ 可擴充的 RAID 控制卡 5/i 和 5/E 使用者指南 在這份文件的第 79 頁可發現對此問題的解說:
這些錯誤訊息是由直接來自使用者應用程式的不受支援的指令所導致的。 這是一個已知問題,其中使用者應用程式嘗試引導指令描述元圖塊至 RAID 磁卷。此錯誤訊息對使用者沒有影響,並且此錯誤不會導致功能遺失。PERC 5 上的韌體支援 Mode Sense/Select 指令。但是,Linux 核心常駐程式將指令傳送至虛擬磁碟而不是磁碟機 IOCTL 節點。 不支援此動作。
另外一個解決的方式就是去修改 smartd.conf 設定檔,使 smartd 支援你的 raid card 但因為我已經裝了 MegaCLI 來監控我的 raid 狀態,所以就先不管了把 smartd 服務停掉。

1、前言

由於 MegaCLI 只能查看 PERC xi 系列的 LSI RAID Controller,而此次採購的伺服器其 LSI RAID Controller 為 SAS 6iR 所以找了一下網路,發現有人寫了工具 Ratz mpt-status 可以在文字模式 (Command Line) 下很方便的查看目前 RAID 及 HDD 狀態。(請尊重 Weithenn 的辛勞!!)

文章目錄

1、前言
2、實作環境
3、安裝及設定
          步驟1.下載 mpt-status 及 kernal source rpm
          步驟2.安裝相依套件
          步驟3.建立安裝 kernel Source rpm 的使用者
          步驟4.安裝 kernel Source rpm
          步驟5.建立 mpt-status rpm 環境
          步驟6.安裝 mpt-status
          步驟7.載入 mptctl 至 kernel
          步驟8.開始使用 mpt-status
4、參考
5、Me FAQ
          Q1.gcc: command not found ?
          Q2.linux/compiler.h: No such file or directory ?
          Q3.warning: group mockbuild does not exist - using root ?
          Q4.redhat-rpm-config is needed by kernel-2.6.18-92.1.22.el5.x86_64?
          Q5.open /dev/mptctl: No such file or directory?

2、實作環境

  • CentOS 5.2 64 bit (Linux 2.6.18-92.el5)
  • Dell PowerEdge 1950
  • Dell RAID Controller SAS 6i/R (SAS1068E)
  • scsi0 : LSISAS1068E
  • SAS HDD 146 G * 2 (Build RAID-1)
  • kernel-2.6.18-92.1.22.el5.src.rpm
  • mpt-status-1.2.0.tar.gz (Source Tarball with spec file)

3、安裝及設定

步驟1.下載 mpt-status 及 kernal source rpm

至 Ratz Web Site 下載 mpt-status-1.2.0.tar.gz。
#wget http://www.drugphish.ch/~ratz/mpt-status/mpt-status-1.2.0.tar.gz
至 CentOS Mirror Site 下載 kernel-2.6.18-92.1.22.el5.src.rpm。
#wget http://mirror.centos.org/centos/5/updates/SRPMS/kernel-2.6.18-92.1.22.el5.src.rpm

步驟2.安裝相依套件

在安裝 kernel Source rpm 及 mpt-status 前我們先檢查系統是不是有安裝等一下會用到的相依性套件,沒有的話就利用 YUM 來安裝,後續的安裝動作才不會中斷。(請尊重 Weithenn 的辛勞!!)
  • gcc:compiler mpt-status 需要用到。
  • rpm-build:因為 mpt-status 沒有提供 rpm 所以我們要自行建立 mpt-status rpm。
  • redhat-rpm-config:kernel Source rpm 相依套件。
  • unifdef:kernel Source rpm 相依套件。
#yum -y install gcc rpm-build redhat-rpm-config unifdef

步驟3.建立安裝 kernel Source rpm 的使用者

建立待會需要用來安裝 kernel Source rpm 的使用者帳號,如下指令為建立 mockbuild 使用者帳號於 /home/user 下。
#adduser -d /home/user/mockbuild mockbuild

步驟4.安裝 kernel Source rpm

利用 rpm 指令來安裝 kernel Source rpm。
#rpm -ivh kernel-2.6.18-92.1.22.el5.src.rpm
 1:kernel                ############################### 100%


步驟5.建立 mpt-status rpm 環境

因為 mpt-status-1.2.0.tar.gz 是 Source Tarball with spec file 所以我們必須利用指令 rpmbuild 來建立 rpm 環境。(請尊重 Weithenn 的辛勞!!)
#rpmbuild -bp --target=$(uname -m) /usr/src/redhat/SPECS/kernel-2.6.spec

步驟6.安裝 mpt-status

解壓縮 mpt-status。
#tar zxvf mpt-status-1.2.0.tar.gz
在執行 make 指令以前,我們先修改 mpt-status 的 Makefile,讓 mpt-status 能正確找到 /usr/src/redhat/SPECS/kernel-2.6.spec 中的檔案。
#cd mpt-status-1.2.0
#vi Makefile
 CFLAGS          := -Iincl -Wall -W -O2 \
                        -I${KERNEL_PATH}/include \     //加入此行
                        -I${KERNEL_PATH}/drivers/message/fusion \
                        -I${KERNEL_PATH_B}/drivers/message/fusion \
                        -I${KERNEL_PATH_S}/drivers/message/fusion

執行 make 指令
#make KERNEL_PATH=/usr/src/redhat/BUILD/kernel-2.6.18/linux-2.6.18.x86_64
 gcc  -Iincl -Wall -W -O2 -I/usr/src/redhat/BUILD/kernel-2.6.18/linux-2.6.18.x86_64/include -I/usr/src/redhat/BUILD/kernel-2.6.18/ \
 linux-2.6.18.x86_64/drivers/message/fusion -I/lib/modules/`uname -r`/build/drivers/message/fusion -I/lib/modules/`uname -r`/source/ \
 drivers/message/fusion -o mpt-status mpt-status.c

執行 make install 指令
#make install
 install -D -s -o root -g root -m 0500 mpt-status \
                /usr/sbin


步驟7.載入 mptctl 至 kernel

安裝 mpt-status 後會發現並無法使用 (因為此時 kernel 未載入 mptctl),我們可以利用下列指令來讓系統載入 mptctl 至 Kernel 中。
#echo modprobe mptctl >> /etc/rc.modules
#chmod +x /etc/rc.modules
#sync;sync;sync;reboot


步驟8.開始使用 mpt-status

重開機後系統應該載入 mptctl 至 kernel 中,因此我們可以開始使用 mpt-status 了。
#mpt-status -n -s
 vol_id:0 OPTIMAL
 phys_id:1 ONLINE
 phys_id:0 ONLINE
 scsi_id:1 100%
 scsi_id:0 100%


4、參考


5、Me FAQ

Q1.gcc: command not found ?

Error Message:
執行 make 指令要產生 mpt-status 編譯 (compiler) 相關檔案時發生如下錯誤訊息。
#cd cd mpt-status-1.2.0
#make
 gcc  -Iincl -Wall -W -O2 -I/usr/src/linux/drivers/message/fusion -I/lib/modules/`uname -r`/build/drivers/message/fusion -I/lib/modules
 /`uname -r`/source/drivers/message/fusion -o mpt-status mpt-status.c /bin/sh:
 gcc: command not found
 make: *** mpt-status Error 127

Ans:
系統沒有安裝 gcc 套件所以無法編譯 (compiler),安裝完 gcc 後便可順利編譯。
#yum -y install gcc

Q2.linux/compiler.h: No such file or directory ?

Error Message:
安裝完 gcc 後似乎可以順利編譯 (compiler) 了,但跑了一下出現如下錯誤訊息。
#make
 gcc  -Iincl -Wall -W -O2 -I/usr/src/linux/drivers/message/fusion -I/lib/modules/`uname -r`/build/drivers/message/fusion -I/lib/modules
 /`uname -r`/source/drivers/message/fusion -o mpt-status mpt-status.c
 In file included from mpt-status.c:38:
 mpt-status.h:6:28: error: linux/compiler.h: No such file or directory
 mpt-status.h:19:26: error: lsi/mpi_type.h: No such file or directory
 ...略
 make: *** mpt-status Error 1

Ans:
因為 mpt-status-1.2.0.tar.gz 是 Source Tarball with spec file 所以我們必須利用指令 rpmbuild 來建立 rpm 環境。
#rpmbuild -bp --target=$(uname -m) /usr/src/redhat/SPECS/kernel-2.6.spec
在執行 make 指令以前,我們先修改 mpt-status 的 Makefile,讓 mpt-status 能正確找到 /usr/src/redhat/SPECS/kernel-2.6.spec 中的檔案。
#cd mpt-status-1.2.0
#vi Makefile
 CFLAGS          := -Iincl -Wall -W -O2 \
                        -I${KERNEL_PATH}/include \    //加入此行
                        -I${KERNEL_PATH}/drivers/message/fusion \
                        -I${KERNEL_PATH_B}/drivers/message/fusion \
                        -I${KERNEL_PATH_S}/drivers/message/fusion

執行 make 指令
#make KERNEL_PATH=/usr/src/redhat/BUILD/kernel-2.6.18/linux-2.6.18.x86_64
 gcc  -Iincl -Wall -W -O2 -I/usr/src/redhat/BUILD/kernel-2.6.18/linux-2.6.18.x86_64/include -I/usr/src/redhat/BUILD/kernel-2.6.18/ \
 linux-2.6.18.x86_64/drivers/message/fusion -I/lib/modules/`uname -r`/build/drivers/message/fusion -I/lib/modules/`uname -r`/source/ \
 drivers/message/fusion -o mpt-status mpt-status.c


Q3.warning: group mockbuild does not exist - using root ?

Error Message:
無法安裝 kernel source rpm 檔案並出現如下錯誤訊息。
#rpm -ivh kernel-2.6.18-92.1.22.el5.src.rpm
 warning: group mockbuild does not exist - using root

Ans:
建立用來安裝 kernel source rpm 的帳號後便可順利安裝。
#adduser -d /home/user/mockbuild mockbuild
#rpm -ivh kernel-2.6.18-92.1.22.el5.src.rpm
  1:kernel                ############################ 100%


Q4.redhat-rpm-config is needed by kernel-2.6.18-92.1.22.el5.x86_64?

Error Message:
執行 rpmbuild 指令時出現如下錯誤訊息。
#rpmbuild -bp --target=$(uname -m) /usr/src/redhat/SPECS/kernel-2.6.spec
 Building target platforms: x86_64
 Building for target x86_64
 error: Failed build dependencies:
        redhat-rpm-config is needed by kernel-2.6.18-92.1.22.el5.x86_64
        unifdef is needed by kernel-2.6.18-92.1.22.el5.x86_64

Ans:
系統需要安裝 kernel source rpm 的相依套件 redhat-rpm-config unifdef,安裝完成後便可順利執行 rpmbuild 指令。
#yum -y install redhat-rpm-config unifdef

Q5.open /dev/mptctl: No such file or directory?

Error Message:
安裝 mpt-status 完成後執行指令出現如下錯誤訊息。
#/usr/sbin/mpt-status
 open /dev/mptctl: No such file or directory
    Try: mknod /dev/mptctl c 10 220
 Make sure mptctl is loaded into the kernel

Ans:
查看後發現 /dev 下並沒有 mptctl 檔案,試了指令 mknod /dev/mptctl c 10 220 後雖然成功建立該檔案不過還是出現如下訊息。
#/usr/sbin/mpt-status
 open /dev/mptctl: No such device
   Are you sure your controller is supported by mptlinux?
 Make sure mptctl is loaded into the kernel

問題的重點在於錯誤訊息的最後一行,也就是 mptctl 並未載入至 kernel 中執行下列指令並重開機後便可順利執行 mpt-status 指令了。
#echo modprobe mptctl >> /etc/rc.modules
#chmod +x /etc/rc.modules
#sync;sync;sync;reboot