顯示具有 VMware 標籤的文章。 顯示所有文章
顯示具有 VMware 標籤的文章。 顯示所有文章

前言

日前 (2017/4/18),VMware 官方正式發佈 vSAN 第六代 VMware vSAN 6.6 Release 資訊。雖然距離上一版 vSAN 第五代 VMware vSAN 6.5 發佈才間隔短短五個月。但是,這次發佈的 vSAN 第六代總共新增 23 項特色功能!!

有關過去每一代 vSAN 版本的新增特色功能資訊,請參考站長歷來撰寫的 vSAN 專欄文章:
圖、VMware Virtual SAN版本演進及新增功能示意圖


那麼,接下來站長也將不定期針對第六代的 vSAN 6.6 深入剖析各項特色功能:

【簡介】(Introduction)




【安全性】(Security)

  • Native Encryption
  • Compliance



【管理】(Management)

  • Proactive Cloud Health Checks
  • vSAN COnfiguration Assist
  • Hardware Lifecycle Management
  • Highly Svailable COntrol Plane for Health Checks
  • Health and Performance Monitoring
  • vRealize Management Pack for vSAN
  • Stretched Cluster Witness Replacement
  • Host Evacuation
  • vSAN API and PowerCLI



【部署】(Deployment)

  • Easy Install
  • Multicast Dependency Removed
  • Extensibility


【可用性】(Availability)

  • Stretched Cluster Local Failure Protection
  • Stretched Cluster Site Affinity
  • Degraded Device Handling



【效能】(Performance)

  • Deduplication and Compression
  • Rebuild and Resynchronization Enhancements
  • Checksum
  • De-Staging
  • iSCSI

前言

日前 (2017/4/18),VMware 官方正式發佈 vSAN 第六代 VMware vSAN 6.6 Release 資訊。



雖然距離上一版 vSAN 第五代 VMware vSAN 6.5 發佈才間隔短短五個月。但是,這次發佈的 vSAN 第六代總共新增 23 項特色功能!!

圖、VMware vSAN 原生超融合安全性

圖、VMware vSAN 提供 SDDC 中深度整合的安全性機制


vSAN 6.6 新功能簡介

由於新功能太多,因此本篇將是 vSAN 6.6 總共新增 23 項特色功能的概要說明。後續,將會把每項特色功能拆解後再依續深入剖析各項機制。首先,我們可以將這些新功能區分為五大類,分別是「安全、管理、部署、可用性、效能」

【安全性】(Security)

在安全性方面有 2 項新功能分別是「Native Encryption」「Compliance」,主要在 VMware SDDC 軟體定義資料中心的願景中,VMware vSAN 擔任 SDS 軟體定義儲存的重要角色。因此,確保儲存資源的安全性機制將相形重要,在新版 vSAN 6.6 當中無須依靠加密磁碟 (SED) 就可以達成靜態資料加密解決方案,有效保護企業及組織當中的機敏資訊。

圖、啟用 vSAN 加密機制


【管理】(Management)

在新版 vSAN 6.6 當中關於管理的部分共有 9 項新功能 (如下所示)。同時,在過往的 vSAN 版本當中,整個 vSAN 運作環境仍圍繞在 vCenter Server 為主要管理平台。現在,新版 vSAN 6.6 已經可以在 vCenter Server 離線時透過 VMware ESXi Host Client 進行管理,不過在哪一台 vSAN 叢集節點都可以查看健康情況。
  • Proactive Cloud Health Checks
  • vSAN Configuration Assist
  • Hardware Lifecycle Management
  • Highly Available Control Plane for Health Checks
  • Health and Performance Monitoring
  • vRealize Management Pack for vSAN
  • Stretched Cluster Witness Replacement
  • Host Evacuation
  • vSAN API and PowerCLI

圖、透過 ESXi Host Client 管理介面查看 vSAN 健康情況



【部署】(Deployment)

在新版 vSAN 6.6 當中關於部署的部分共有 3 項新功能 (如下所示)。在過往的 vSAN 運作環境中,最令管理人員感到困擾的便是 vSAN 叢集主機之間必須透過「Multicast」進行溝通。現在,新版 vSAN 6.6 改為採用「Unicast」(當舊版升級為 vSAN 6.6 後也會自動 Multicast -> Unicast)。
  • Easy Install
  • Multicast Dependency Removed
  • Extensibility

圖、新版 vSAN 改為採用 Unicast

圖、新版 vSAN 改為採用 Unicast



【可用性】(Availability)

在新版 vSAN 6.6 當中關於可用性的部分共有 3 項新功能 (如下所示)。事實上,從第二代 vSAN 6.0 版本開始便具備 vSAN Stretched Cluster 的運作架構,然而新版的 vSAN 6.6 結合本地端故障保護機制讓站台之間的容錯更具備彈性,甚至結合親和性規則讓儲存原則的管理更具備靈活性。
  • Stretched Cluster Local Failure Protection
  • Stretched Cluster Site Affinity
  • Degraded Device Handling

圖、Stretched Cluster Local Failure Protection 運作架構示意圖


圖、Stretched Cluster Site Affinity 運作架構示意圖




【效能】(Performance)

在新版 vSAN 6.6 當中關於效能的部分共有 5 項新功能 (如下所示)。在新版 vSAN 6.6 當中,支援最新 Intel 3D XPoint NVMe 快閃儲存 (Intel Optane P4800X),並且根據 VMware 官方的效能測試結果顯示,跟舊版 vSAN  All-Flash 運作架構相較之下儲存效能將提升 50%
  • Deduplication and Compression
  • Rebuild and Resynchronization Enhancements
  • Checksum
  • De-Staging
  • iSCSI

圖、ESXi vs Bare Metal 使用 Intel Optane 效能測試

圖、VMware vSAN 使用 Intel Optane 效能測試



參考資源


前言

從新版 vSphere 6.5 開始,正式支援 RDMA (Remote Direct Memory Access) 當中的 RoCE (RDMA over Converged Ethernet),以便於達到「Kernel Bypass、Zero Copy、CPU Offloading」的目的。在目前的 RoCE 運作模式中,分別有 RoCE v1RoCE v2 等 2 種運作模式:

RoCE v1 (Layer 2)

運作在 Ehternet Link Layer (Layer 2) 所以 Ethertype 0x8915,所以正常的 Frame 大小為 1,500 bytes 而 Jumbo Frame 則是 9,000 bytes

RoCE v2 (Layer 3)

運作在 UDP / IPv4 或 UDP / IPv6 之上 (Layer 3),採用 UDP Port 4791 進行傳輸 。因為 RoCE v2 的封包是座落在 Layer 3 之上可進行路由,所以有時又會稱為「Routable RoCE」或簡稱「RRoCE」
圖、RoCE v1 及 RoCE v2 封包格式示意圖



RDMA 的功用

簡單來說,透過 RDMA 可以達到「Kernel Bypass、Zero Copy、CPU Offloading」的目的。一般來說,採用 RDMA 與一般乙太網路 TCP/IP 相較之下,效能大約可以提升 30% ~ 40% 或以上。

圖、採用一般乙太網路 TCP/IP 進行傳輸

圖、採用 RDMA 進行傳輸

現在,vSphere 6.5 支援 PVRDMA (Para-Virtual Remote Direct Memory Access) 機制,簡單來說就是讓 VM 虛擬主機可以使用 ESXi 主機所配置的 RDMA 介面卡及功能,達到 Kernel Bypass、Zero Copy、CPU Offloading 的目的 (目前 vSphere vMotionSnapshot 皆受益)。

目前,必須符合下列相關條件才能順利運作 PVRDMA 功能:


最後,我個人的疑問是 VMware vSAN 是否已經支援 RDMA 特色功能了? 就目前所得到的資訊來看,目前 vSAN 似乎仍支援 RDMA 特色功能。至於 vSphere 6.5 是否支援另一個主流 RDMA (iWARP),目前所得到的資訊來看似乎也仍支援。

參考資源


Q. 在 VMware Horizon 7 虛擬桌面運作環境中無法佈建,並出現「Customization failure: vCenter Server 無法解密儲存在自訂規格中的密碼」錯誤訊息?

Error Message:
在 VMware Horizon 7 桌面虛擬化運作環境,當嘗試佈建 VDI 虛擬桌面過一陣子之後便會出現「Customization failure: vCenter Server 無法解密儲存在自訂規格中的密碼」錯誤訊息?


Ans:
簡單來說,這個問題發生的原因在於 vCenter Server 無法存取,當初自訂 VDI 範本進行 Sysprep 內的密碼。因此,請登入 vSphere Web Client 管理畫面後,至「自訂規格管理員」管理介面找到佈建 VDI 虛擬桌面會使用到的 Sysprep 組態設定,然後至「系統管理員密碼」項目重新進行設定後,便可以順利佈建成功了。


參考資源:

前言

2017 年 3 月 2 日 VMware 官方正式發佈 SDDC 4.0 (Software-Defined Data Center 4.0),也就是 VMware 官方在整個「軟體定義資料中心」整個完整的 IT 基礎架構。下列為 SDDC 4.0 軟體定義資料中心新功能介紹影片:




SDDC 4.0 解決方案

整個 SDDC 4.0 解決方案架構的產品版本,包含 VMware vSphere Enterprise Plus、vSAN Standard or Higher、vSphere Replication、Site Recovery Manager Enterprise、NSX for vSphere Enterprise、vRealize Suite……等,詳細產品資訊及版本如下:




SDDC 4.0 運作架構

有關 SDDC 4.0 架構海報共分為六大區塊:

  • Logical Components Architecture: 整個 SDDC 4.0 的邏輯框架,包含雙中心軟體定義資料中心、vCenter Server / PSC 負載平衡、跨區域/跨 vCenter 管理 NSX 軟體定義網路環境、vRealize Suite 自動化……等。
  • Core and Pod Architecture: 說明整個 SDDC 4.0 內所設計的 Pods、Leaf-Spine Network、Host Connectivity……等,以便為所部署的軟體定義資料中心提供可擴充的 Blocks 運作架構。
  • Distributed Logical Networking and Application Virtual Networks: 在 SDDC 4.0 運作架構中整合 VMware NSX 虛擬網路架構,以便為 SDDC 相關網路服務提供完整的虛擬網路解決方案。
  • Storage: 在 SDDC 4.0 運作架構中,儲存資源的部分採 vSAN 及 NFS 提供給上層應用程式或服務使用。VMware 官方建議,請採用 VMware vSAN Ready Nodes 來建立 vSAN 儲存資源。
  • Pods and Clusters: 在 SDDC 4.0 運作架構中,如何讓 Pod、解決方案、分散式邏輯路由互相整合及協同運作。
  • Region Protection and Disaster Recovery:  整合  vRealize Automation、vRealize Orchestrator、vRealize Operations、SRM 及 NSX……等,以便提供 SDDC 4.0 運作架構區域保護及災難復原機制。






參考資源


網管人雜誌

本文刊載於 網管人雜誌第 134 期 - 2017 年 3 月 1 日出刊,NetAdmin 網管人雜誌 為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它或透過下列圖示連結至博客來網路書店訂閱它。



文章目錄

前言
vSAN 6.5 新功能
          iSCSI 存取
          2 台 vSAN Node 直接對接
          全功能 PowerCLI
          支援新世代硬碟 512e 進階格式
          全版本支援 All Flash
結語





前言

在 2016 年 11 月時,VMware 官方在 VMware VMworld 2016 大會上,正式發佈 VMware vSphere 6.5 最新版本並連同 VMware vSAN 6.5 版本也一起推出。簡單來說,VMware Virtual SAN(簡稱 vSAN),是 VMware 的「軟體定義儲存(Software-Defined Storage,SDS)」解決方案,它能夠將多台 x86 實體伺服器內的「本機硬碟(Local Hard Disk)」互相串連起來,進而將叢集當中所有 vSAN 節點主機的儲存資源整合起來,成為一個巨大的儲存資源池並且能夠互相共同使用。

圖 1、VMware vSAN 運作架構示意圖

事實上,從 VMware vSAN 版本的發佈頻率可知,VMware 官方對於打造 SDDC 軟體定義資料中心內,負責儲存資源的 SDS 軟體定義儲存技術的重視。第 1 代的 VMware vSAN 版本,是在 2014 年 3 月時隨著 vSphere 5.5 Update 1 版本開始內建(vSAN 1.0),接著在隔年推出第 2 代 VMware vSAN 版本,是在 2015 年 3 月隨著當時新版 vSphere 6.0 一同發佈,並直接與 vSphere 版本對齊成為 vSAN 6.0 版本(原訂新版本號應為 vSAN 2.0),在這個版本當中最重要的特色為支援 All Flash 運作架構,同時 vSAN 叢集規模可達到 64 台節點之多。
有關第 1 代 vSAN 運作架構及特色功能的詳細資訊,請參考本刊第 110 期《實戰部署 Virtual SAN套用政策自動化搭配 VM》,而第 2 代 vSAN 運作架構及特色功能的詳細資訊,請參考本刊第 114 期《動手建立 VSAN 6 儲存資源,實戰水平擴充與容錯網域》

接著,半年後於 2015 年 9 月時推出第 3 代的 vSAN 6.1 版本,其中最具代表性的功能便是「延伸叢集」(Stretched Cluster)與「支援 2 Nodes」的運作架構。再隔半年後於 2016 年 3 月推出第 4 代 vSAN 6.2 版本,在這個版本當中最重要的特色為 All Flash 運作架構,支援「重複資料刪除與壓縮」(Deduplication and Compression)及「RAID 5/6 EC 編碼技術」(RAID 5/6 Erasure Coding)。
有關第 3 代 vSAN 運作架構及特色功能的詳細資訊,請參考本刊第 120 期《VMware VSAN 延伸叢集,實作跨站點同步 HA 複寫》,而第 4 代 vSAN 運作架構及特色功能的詳細資訊,請參考本刊第 124 期《概覽 VMware VSAN 6.2 新功能加強健康狀態監控》

現在,於 2016 年 11 月隨著最新 VMware vSphre 6.5 的發佈也同時推出第 5 代的 vSAN 6.5 版本,此版本中重要的特色功能條列如下:
  • iSCSI 存取: 支援將 vSAN 儲存空間以 iSCSI目標的方式提供,讓具備 iSCSI 啟動器功能的伺服器能夠連接及使用 vSAN 儲存空間。
  • 2 台 vSAN Node 直接對接: 支援將 2 台 vSAN節點主機直接對接,讓企業及組織當中的分公司或小型企業在建置 vSAN 軟體定義儲存環境時,無須準備昂貴的 10GbE 網路交換器。
  • 全功能 PowerCLI: 在新版 vSAN 6.5 運作環境中,包括完整的 PowerCLI Cmdlet 功能讓企業及組織的自動化作業更具可擴充性及易用性。
  • 支援新世代硬體: 在新版 vSAN 6.5 運作環境中,支援新世代的 x86 硬體伺服器及相關元件,同時也支援 512e 新式大容量儲存裝置。
  • 全版本支援 All-Flash: 現在不管採用哪種 vSAN 6.5 授權版本,都可以使用及建置 vSAN All-Flash 運作架構。
圖 2、VMware Virtual SAN版本演進及新增功能示意圖





vSAN 6.5 新功能

在過去舊版的 vSAN 運作環境內,當 vSphere 管理人員將 vSAN 叢集中的節點主機儲存資源集合之後,儲存資源只能夠以「VMFS 檔案系統」的方式提供及運作 VM 虛擬主機。但是,對於需要採用其它方式使用儲存資源的應用程式或服務來說便會造成困擾,舉例來說,現行企業及組織當中有許多應用程式及服務的儲存資源,便是透過在伺服器中安裝及啟用「iSCSI 啟動器」(iSCSI Initiator)功能,然後透過 TCP/IP 乙太網路連接至「iSCSI 目標端」(iSCSI Target)所提供的 LUN 儲存資源,最後再將應用程式及服務運作在透過 iSCSI 協定所掛載的 LUN 儲存資源當中。

現在,最新版本的 vSAN 6.5 運作架構中,支援將整合後的 vSAN 儲存資源以 iSCSI 目標端的方式,提供給 iSCSI 啟動器掛載 LUN 儲存資源,有效解決過去舊版 vSAN 儲存資源美中不足的困擾。在運作規模方面,每個 vSAN 叢集最多支援提供 1,024 個 LUN 儲存資源,並且每個 LUN 儲存資源空間最大為 62 TB,同時每個 vSAN 叢集最多支援提供 128 個 iSCSI 目標

因為 iSCSI 目標所建立的 LUN 儲存資源,在 vSAN 運作架構底層中其實是以 VMDK 虛擬磁碟的方式存在,所以儲存空間與 VMDK 虛擬磁碟的限制相同為 62 TB。



iSCSI 存取

雖然,最終是以 iSCSI 協定提供儲存資源服務,但是整個運作架構底層還是建構在 vSAN 軟體定義儲存技術之上,所以當 vSAN 運作架構成型後 vSphere 管理人員若需要啟用 vSAN iSCSI 目標服務時非常簡單,並且同樣能夠以 vSAN 原有的「儲存原則」(Storage Policy),管控由 vSAN 所提供的 iSCSI LUN 儲存資源。此外,倘若運作環境中需要使用 iSCSI 的 CHAP 身分驗證機制時,那麼 vSAN iSCSI 目標也支援單向 CHAP 及雙向 CHAP 身分驗證機制。

圖 3、VMware vSAN 分散式 iSCSI Target 運作架構示意圖

啟用 iSCSI 目標服務
當 vSphere 管理人員需要啟用 vSAN iSCSI 目標服務時,請登入 vSphere Web Client 管理介面並點選叢集物件後,依序點選「Configure > Virtual SAN > General」項目,然後在 Virtual SAN iSCSI Target Service 組態設定區塊中按下「Edit」鈕,準備啟用 vSAN iSCSI 目標服務。

請在彈出的 Edit Virtual SAN iSCSI Target Service 視窗中,組態設定相關選項並在下拉式選單中選擇採用相關功能:
  • Enable Virtual SAN iSCSI target service: 請勾選此項目,以便啟用 vSAN iSCSI 目標服務。
  • Default iSCSI network: 透過下拉式選單指定屆時 vSAN iSCSI 目標服務,要採用哪個 VMkernel Port 進行 iSCSI 儲存流量傳輸作業。
  • Default TCP port: 指定 vSAN iSCSI 目標服務的連接埠號,請採用預設標準的 iSCSI 目標端連接埠號 3260 即可。
  • Default authentication: 透過下拉式選單指定 vSAN iSCSI 目標服務的身分驗證方式,預設值為 None 不啟用 CHAP 身分驗證機制,倘若需要的話 vSAN iSCSI 目標服務也支援單向 CHAP 及雙向 CHAP 身分驗證機制。
  • Storage policy for the home object: 透過下拉式選單指定 vSAN iSCSI 目標服務所要套用的 SPBM 儲存原則。
圖 4、啟用 vSAN iSCSI 目標服務功能及組態設定功能項目

建立 LUN 儲存資源
當 vSAN iSCSI 目標服務順利啟動後,接著便可以建立 iSCSI 目標及 LUN 儲存資源。請在 vSphere Web Client 管理介面中,依序點選「Configure > Virtual SAN > iSCSI Targets」項目後,在 Virtual SAN iSCSI Targets 組態設定區塊中按下「新增」鈕(綠色加號圖示),準備組態設定 vSAN iSCSI 目標及建立 LUN 儲存資源。

請在彈出的 New iSCSI Target 視窗中,組態設定相關選項並在下拉式選單中選擇採用相關功能:
  • Target IQN: 系統為 vSAN iSCSI 目標服務隨機產生的 iSCSI Target IQN。
  • Target alias: 管理人員可以為此 vSAN iSCSI 目標服務指定別名以利識別。
  • Target storage policy: 指定此 vSAN iSCSI 目標服務所要套用的 SPBM 儲存原則。
  • Network: 透過下拉式選單指定此 vSAN iSCSI 目標服務,要採用哪個 VMkernel Port 進行 iSCSI 儲存流量傳輸作業。
  • TCP port: 指定 vSAN iSCSI 目標服務的連接埠號,請採用預設的標準 iSCSI 目標端連接埠號 3260 即可。
  • Authentication: 透過下拉式選單指定此 vSAN iSCSI 目標服務的身分驗證方式,vSAN iSCSI 目標服務支援單向 CHAP 及雙向 CHAP 身分驗證機制,預設情況下請採用預設值 None 即可。
  • Add your first LUN to the iSCSI target(Optional): 請勾選此項目,以便建立及組態設定 LUN 儲存資源。
  • LUN ID: 指定此 LUN 儲存空間的 ID 數值。
  • LUN alias: 指定此 LUN 儲存空間的別名以利識別。
  • LUN storage policy: 指定此 LUN 儲存資源所要套用的 SPBM 儲存原則。
  • LUN size: 指定此 LUN 儲存資源的空間大小。
圖 5、組態設定 vSAN iSCSI 目標及 LUN 儲存資源

新增 iSCSI 啟動器存取清單
順利建立 LUN 儲存資源之後,在 Target Details 組態設定區塊中便會看到剛才所建立的 LUN 儲存資源資訊。最後,請在同組態設定區塊中切換到「Allowed Initiators」頁籤後按下「新增」鈕(綠色加號圖示),新增只有哪些 iSCSI 啟動器能夠存取此 vSAN iSCSI 目標所提供的 LUN 儲存資源。

圖 6、組態設定哪些 iSCSI 啟動器能夠存取 vSAN iSCSI 目標所提供的 LUN 儲存資源

現在,只要在允許存取 LUN 儲存資源清單中的 iSCSI 啟動器,便可以透過 TCP/IP 乙太網路順利存取由 vSAN iSCSI 目標所提供的 LUN 儲存資源。值得注意的是,根據 VMware 官方的最佳作法建議,倘若只是要運作 VM 虛擬主機的話,應該保持以原本的 VMFS 檔案系統來運作 VM 虛擬主機即可,倘若是要運作如 MSCS 微軟容錯移轉叢集或 Oracle RAC……等服務,並且規劃使用 IP-SAN(iSCSI)運作架構時才建議使用 vSAN iSCSI 目標服務。

在 vSAN iSCSI 目標服務容錯移轉的部分,因為 vSAN iSCSI 目標服務是完全整合於 vSAN 分散式運作架構,所以當 iSCSI 啟動器端連線時便會連接到 vSAN 目標端的「擁有者」(Owner)節點主機,並且由該台 vSAN 節點主機回應 iSCSI 啟動器端存取負責管理的 LUN 儲存資源。

倘若,原本負責 vSAN iSCSI 目標端擁有者的節點主機突然發生故障事件時,那麼便會由 vSAN 叢集中其它存活的節點主機接手服務,成為 vSAN iSCSI 目標端擁有者並且繼續服務 iSCSI 啟動器,而 iSCSI 啟動器便會連接至新的 vSAN iSCSI 目標端擁有者,繼續使用由 vSAN 叢集所提供的 LUN 儲存資源。

圖 7、vSAN iSCSI目標服務容錯移轉運作架構示意圖



2 台 vSAN Node 直接對接

事實上,在第 3 代 vSAN(vSAN 6.1)運作環境中,便已經支援「2 Node」的 vSAN 節點主機運作環境,也就是只要 2 台 vSAN 節點主機便能建構 vSAN 叢集,這樣的運作架構適用於企業及組織中分公司或小型運作環境時使用。然而這樣的 vSAN 運作架構雖然只有 2 台 vSAN 節點主機,卻仍需要配置 1 台昂貴的 10 Gbps 網路交換器,並且也僅用到該台 10 Gbps 網路交換器的 4 個連接埠而已,倘若考慮預防 SPOF 單點失敗情況的話,則需配置「2 台」10 Gbps 網路交換器,並且每台 10 Gbps 網路交換器只會用到 2 個連接埠而已,這對於建置分公司或小型 vSAN 運作規模的整體預算來說是項吃重的負擔。

現在,全新第 5 代 vSAN 6.5 運作環境中,原有 1 Gbps 負責 VM 虛擬主機網路傳輸的部分可繼續延用,然而原有 10 Gbps 負責 vSAN 節點主機資料同步的部分,正式支援 2 台 vSAN 節點主機透過「交叉式纜線」(Crossover Cables)的方式互相連接,無須再向過往舊版 vSAN 運作環境必須透過 10 Gbps 網路交換器。如此一來,建置分公司或小型 vSAN 運作環境時便無須再採購昂貴的 10 Gbps 網路交換器,因此能夠有效降低分公司或小型 vSAN 運作規模的整體預算,根據 VMware 官方分析調查的結果顯示可以有效降低約「20 %」的投資成本。

在組態設定部分,根據 VMware 官方的最佳作法建議,當在 vSAN 叢集當中的節點主機透過交叉式纜線互相連接之後,在 vSAN 節點主機網路流量規劃的部分,應該要將「vSAN 儲存流量」及「vMotion 遷移流量」分開在不同的 10 Gbps 纜線進行傳輸,以避免儲存或遷移流量互相干擾的情況發生,舉例來說,倘若 2 台 vSAN 節點主機正透過 vSAN 儲存流量網路大量同步資料狀態的情況下,此時又剛好以 vMotion 線上遷移機制大量遷移 VM 虛擬主機的話,那麼有可能會增加 10 Gbps 的網路延遲時間及工作負載。

因此,在 vSAN 節點主機網路流量規劃的部分,除了將儲存或遷移流量分開之外,也同時應設定為互相備援的組態配置以便故障情況發生時,能夠有另 1 個 10 Gbps 纜線進行網路流量的容錯移轉。

圖 8、2 台 vSAN 節點主機透過交叉式纜線連接後,網路流量規劃的組態配置示意圖

此外,在最新的 vSAN 6.5 版本開始,新增將「見證網路流量」(Witness Traffic)分離的功能,解決在 2 台 vSAN 節點主機上必須建立及維護靜態路由的組態設定,降低 vSAN 整體運作架構的複雜度,同時在安全性方面也得到改善,因為 vSAN 儲存網路流量與 WAN 見證網路流量得以完全分離。

因為,負責 vSAN 運作架構的見證虛擬設備不可以運作在 2 台 vSAN 節點主機上,同時一般來說 2 台 vSAN 節點主機的運作架構,通常是運作在企業及組織的分公司或遠端辦公室當中。倘若,分公司或遠端辦公室有透過 WAN 網路與主要辦公室連接時,那麼可以考慮將見證虛擬設備運作在主要辦公室當中,除了節省建置第 3 台 ESXi 主機以運作見證虛擬設備之外,將見證虛擬設備運作在主要辦公室以便統一進行管理。

圖 9、2 台 vSAN 節點主機及見證虛擬設備運作在主要辦公室運作架構示意圖



全功能 PowerCLI

在新版 vSAN 6.5 運作環境中,VMware 官方已經將 vSphere API 抽象化為簡單的 Cmdlet。因此,現在 vSphere 管理人員可以透過 VMware PowerCLI 的方式,以更快速且自動化的方式部署及管理 vSAN 運作環境:
  • 啟用重複資料刪除及壓縮機制。
  • 啟用 vSAN 效能服務。
  • 組態設定 vSAN 健康檢查服務。
  • 建立 All Flash 磁碟群組。
  • vSAN 故障網域管理。
  • 組態設定 vSAN 延伸叢集。
  • 為維護模式選擇正確的資料遷移選項。
  • 檢索儲存空間資訊。
圖 10、透過 VMware PowerCLI 管理 vSAN 運作環境示意圖



支援新世代硬碟 512e 進階格式

過去,舊有的儲存裝置(硬碟)都採用「512 Byte Sector」(又稱為 512n)格式,而新式儲存裝置「進階格式」(Advance Format,AF)則是採用「4,096 Byte Sector」(又稱為 4Kn)格式。現在,從 VMware vSphere 6.5 及vSAN 6.5 版本開始,只要配合最新的「VMFS 6」檔案系統便全面支援以「512e(512B Emulation)」的方式運作,也就是以 512e 模擬 4K 的方式運作配合實體硬碟特性增強整體運作效能。
請注意!! 採用舊版 vSAN 或 VMFS 檔案系統的話,不支援以 512e 的方式運作所以採用 512e 的儲存裝置時,可能會引發或造成潛在的運作效能問題。有關 512 / 4,096 Byte Sector 詳細資訊請參考 VMware KB 2091600

圖 11、vSAN 6.5 支援新式進階格式 512e 儲存裝置示意圖

簡單來說,「磁區大小」(Sector Size)是影響作業系統及 Hypervisor 虛擬化管理程序運作效能的關鍵,因為它是儲存裝置(硬碟)最底層 I/O 的基本單位。因此,新式 512e 與舊有 512n 相較之下,雖然新式 512e 邏輯磁區大小也是 512 Byte,但是實體磁區大小則是 4,096 Byte 這是二者間最大的不同,所以在資料的「讀取-修改-寫入」(Read-Modify-Write,RMW)行為上,新式的 512e 與舊有的 512n 相較之下,會減少許多在資料 RMW 行為時效能懲罰的部分。

雖然,原生 4Kn 不管在邏輯磁區大小或實體磁區大小都是 4,096 Byte,但是目前的情況為並非所有儲存裝置、作業系統及 Hypervisor 虛擬化管理程序都完全支援。在下列表格中,為讀者們條列舊有 512n 及新式 512e 和原生 4Kn 在邏輯及實體磁區大小上的運作差異:

請注意!! 目前最新版本的 VMware vSphere ESXi 6.5 及 vSAN 6.5 運作環境中,仍尚未支援原生 4K 儲存裝置。
在目前儲存裝置市場中,支援新式進階格式 512e 的儲存裝置空間從 300 GB 到 10 TB 都有,並且通過 VMware vSAN 6.5 版本硬體認證的 512e 硬碟約有 230 個型號,不同 OEM 硬碟供應商所通過的數量不定。建議在使用及建置前應向硬碟供應商再次確認,所使用的硬碟是否支援新式進階格式 512e,以確保屆時建置的 VMware vSAN 6.5 運作效能及穩定性。

圖 12、各家 OEM 廠商通過 VMware vSAN 6.5 版本硬體認證的 512e 硬碟統計圖



全版本支援 All Flash

雖然,VMware vSAN 從第 2 代 vSAN 6.0 版本開始便支援 All Flash 運作架構,然而在過去的 vSAN 軟體授權版本當中,至少要採用「進階版或企業版」的 vSAN 軟體授權才能夠使用 All Flash 的運作架構及特色功能。

現在,最新的 VMware vSAN 6.5 版本當中,不管採用哪種 vSAN 軟體授權版本皆支援使用 All Flash 運作架構。因此,即便是由 2 台 vSAN 節點主機所建構的小型 vSAN 運作環境,也能夠使用 All Flash 的硬體運作架構,為需要高 IOPS 儲存效能的分公司或小型 vSAN 環境提供解決方案。

值得注意的是,雖然開放「標準版」及「ROBO 版」支援採用 All Flash 硬體架構來建立 vSAN 運作環境,但是在 All Flash 運作架構中進階特色功能,例如,「重複資料刪除及壓縮」、「RAID5/6 Erasure Conding」特色功能,仍需要採用「進階版或企業版」vSAN 軟體授權才能夠使用。

此外,如果要讓建置的 vSAN 運作架構支援「延伸叢集」或「IOPS 儲存效能管控」特色功能時,那麼只能採用「企業版」的 vSAN 軟體授權才能夠使用這 2 項進階功能特色。

圖 13、VMware vSAN 6.5 軟體授權可使用特色功能示意圖





結語

透過本文的說明及實作相信讀者已經了解,在第 5 代最新 vSAN 6.5 版本當中有哪些特色功能,能夠幫助企業及組織建立更靈活、高擴充性、高可用性的 SDS 軟體定義儲存運作環境。

同時,對於企業及組織的分公司或小型企業運作環境來說,以往在建立虛擬化環境時令人困擾的初期建置成本問題,在新版 vSAN 6.5 當中透過交叉式纜線的方式解決僅 2 台 vSAN 節點主機,就必須採購昂貴 10Gbps 網路交換器的問題。

前言

Photon 由 VMware 官方在 2015 年 4 月發行,它是由 VMware 自家所開發的 Linux 版本專為 vSphere 環境所優化的 Container 運作平台 (同時,也支援其它常見的容器格式,例如,Docker, Rocket (rkt), Pivotal Garden),並且移除 Linux Kernel 及 vSphere Hypervisor 重複的核心快取,以便提升整體運作效能。

此外,Photon OS 可以部署在 vSphere ESXi 5.5、6.0 虛擬化平台,以及 vCloud Air、VMware Fusion、VMware Workstation 等虛擬化環境中。下列為入門 Photon OS 很棒的參考文件及影片:





Photon 安裝需求

Photon OS 安裝及初始設定的詳細操作步驟,請參考官方影片及說明文件:


在此次的實作環境中,採用的 Photon-1.0 ISO 大小為 2.06 GB,倘若採用 VM 的方式安裝 photon 時,記得在選擇 OS 類型時採用「Linux - Other Linux 3.x kernel 64-bit」。下列為安裝 Photon OS 的最低硬體需求:
  • 2 vCPU
  • 384 MB Memory
  • 20 GB HDD


在安裝 Photon 過程中,將有下列 4 種安裝選項可供選擇:
  • Photon Minimal: 為最輕量的 Container Host Runtime 運作環境,具備最高效能及安全性的版本。
  • Photon Full: 包含額外的套件以方便建立及打包應用程式為容器環境,適合一開始使用 Photon 進行驗證及測試的版本。
  • Photon OSTree Host: 將會建立 Photon OS Instance 並從 RPM-OSTree Server 下載相關 Package 及 Library,並且後續由 OSTree Server 集中管理。
  • Photon OSTree Server: 將會建立 Repository 及負責管理 OSTree Hosts,為單位生命週期管理及企業級規模擴充的工作任務。


此次實作環境中,選擇「Photon Full」安裝選項並花費 225 秒即安裝完畢。





基礎操作

查看 Photon OS 主機系統資訊。此外,倘若 Photon OS 是運作在 VM 虛擬主機的話,可以透過「systemctl status vmtoolsd」指令查看 VMware Tools 服務的運作情況。
# uname -a
# cat /etc/photon-release
# hostnamectl


從 RHEL 7 / CentOS 7 開始,管理服務的部分已經從傳統的 Runlevel (/etc/rc.d/init.d),改為新一代的 systemd  (/etc/systemd/system)。因此,採用與 RedHat / CentOS 相關 Linux 核心的 Photon OS 便可以使用「systemctl start docker」指令來啟動 docker 服務,接著透過「systemctl enable docker」設定 Photon 主機重新啟動後,仍然能夠自動啟動 docker 服務。接著,可以透過傳統的「ps aux |grep docker」來確認 Docker Daemon 是否啟動,或採用新一代的指令「systemctl status docker」來確認目前 Docker Daemon 的執行狀態、PID……等資訊。
# systemctl start docker
# systemctl enable docker
# ps aux |grep docker
# systemctl status docker


透過「docker info」可以查看 Docker 容器環境的運作資訊,條列一下我覺得輸出資訊中比較重要的項目:
  • Server Version: 1.11.0
  • Docker Root Dir: /var/lib/docker


透過「docker version」指令,馬上確認目前 Docker 容器環境的 Client / Server 版本。






永遠的範例 Hello-World

那麼,讓我們開始使用 Docker 容器環境吧,不免俗的第 1 個範例就是透過 Docker 容器環境執行列出字串「Hello-World」吧。

其實在執行「docker run hello-world」指令後,在第 1 行資訊中 (Unable to find image 'hello-world:latest' locally) 可以看到,系統發現目前並沒有「Hello-World」這個 Images,所以就透過預設的系統設定去 Docker Hub 下載 Hello-World 這個容器映像檔 (所以自動執行「docker pull」的動作),最後執行它。其實在結果中看到回應的 4 點訊息,已經完全說明這個動作的流程。
# docker run hello-world

接著,可以透過「docker images」查看目前系統中的 Docker Images 清單。此外,你也可以觀察一下 Docker Images 的預設資料夾「/var/lib/docker/*」下相關的變化。


接著,我們來練習第 2 個範例為透過 Docker 容器環境執行 Nginx 網頁伺服器。但是在開始之前因為在本文實作環境中,採用「Photon Full」安裝選項所以預設會自動啟動 httpd 服務 (佔用 TCP Port 80),所以把 httpd 調整為預設停用,以避免 Photon OS 重新啟動後佔用 TCP Port 80。
# systemctl disable httpd
# systemctl list-unit-files --type service | grep enabled


確認 Photon OS 停用 httpd 預設啟動的組態設定後,便可以練習第 2 個範例為透過 Docker 容器環境執行 Nginx 網頁伺服器。
# docker run -d -p 80:80 vmwarecna/nginx

Photon OS 預設 Iptables 防火牆規則只允許 TCP Port 22 放行,我們開啟常用的 ICMP 回應 (ping) 以及 TCP Port 80 將其放行。有關 iptables 防火牆的基本操作,請參考站內文章 邁向 RHCE 之路 (Day22) - IPTables 防火牆 文章內容。


請修改「/etc/systemd/scripts/iptables」組態設定檔,開啟 ICMP 回應 (ping) 以及 TCP Port 80 放行 (如下 2 行放行規則)。然後,就可以重新啟動 iptables 服務以便防火牆規則能夠套用生效,再採用「iptables -L」指令確認 ICMP 及允許 TCP Port 80 的防火牆規則已經套用生效。
# vi /etc/systemd/scripts/iptables
  iptables -A INPUT -p icmp -j ACCEPT
  iptables -A INPUT -p tcp --dport 80 -j ACCEPT
# systemctl restart iptables
# systemctl status iptables
# iptables -L


確認 Photon OS 的 iptables 防火牆允許 TCP Port 80 後,便可以開啟瀏覽器確認是否能夠看到 Nginx 網頁伺服器的歡迎頁面。






MeFAQ

Q1. 預設情況下 Photon OS 雖然 sshd 服務有啟動,但不允許 Root 帳號遠端 SSH 登入?

Ans: 請參考 Photon Wiki - FAQ - Why can't I SSH in as root? 文章內容。簡單來說,Photon OS 預設情況下「/etc/ssh/sshd_config」設定檔內容中,預設值為「PermitRootLogin no」所以,不允許 Root 管理帳號可以遠端登入。所以,只要修改為「PermitRootLogin yes」後重新啟動 sshd daemon 即可 (當然,這樣就會多了安全性風險就不在本文討論範圍了。)
# grep PermitRootLogin /etc/ssh/sshd_config
  PermitRootLogin yes
# systemctl restart sshd
# systemctl status sshd




Q2. 運作 nginx 時顯示 Localhost TCP Port 80 已經被使用了?

Ans: 倘若在安裝 Photon OS 時,採用「Photon Full」選項的話,那麼預設就會安裝及啟用 httpd 服務所以 TCP Port 80 就會被佔用。倘若,選擇 Minimal 的話就不會。相關討論串請參考 TCP Port 80 in use | VMware CommunitiesRunning Photon OS on vSphere example iptables issue · Issue #35 · vmware/photon-controller


可以看到預設情況下 Photon OS 已經 Listen tcp6 port 80。
# netstat -na | grep ":80"
tcp6       0      0 :::80                   :::*                    LISTEN


如果,希望是 Listen tcp4 port 80 的話,可以修改「/etc/httpd/httpd.conf」把「Listen 80」改成「Listen 0.0.0.0:80」,然後「systemctl httpd restart」就會變成 IPv4 httpd 了。
# netstat -na | grep ":80"
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN


但是,我們希望把 httpd 調整為預設停用並停止服務,以避免 Photon OS 重新啟動的話會佔用 TCP Port 80。
# systemctl stop httpd
# systemctl disable httpd
# systemctl list-unit-files --type service | grep enabled






參考資源