VMware Hands-on Labs - HOL-1720-SDC-1-JA


実習ラボの概要 - HOL-1720-SDC-1 - VMware Integrated OpenStack (VIO) with vSphere and NSX

Lab Guidance


注:このラボを完了するために90分以上かかります。モジュールは、それぞれ独立していますので、任意のモジュールから開始することができます。目次を使用することがやりたいモジュールへ飛ぶことができます。

目次ラボマニュアルの右上隅にアクセスすることができます。

このラボは、VIOへの導入をご提供する、NSXvRealize Operations と統合する方法をご紹介します。ボリュームの取り付け、ワークロードの起動、論理ネットワーク作成、セキュリティポリシー作成、LBaaSを実習してみましょう。これらすべての事象の可視性とレポート機能を提供します。

ラボキャプテン:

 アミット・クマールアグラワル - スタッフシステムズエンジニア、USA

 メラニースペンサー - スタッフシステムズエンジニア、USA

 トム・シュワラー - スタッフシステムズエンジニア、ドイツ

 

この実習ラボ マニュアルは、次のハンズオン ラボ ドキュメント サイトからダウンロードできます。

[http://docs.hol.vmware.com]

一部の実習ラボは、英語以外の言語でも提供されています。 言語設定を変更して翻訳版のマニュアルを実習ラボで使用する手順については、次のドキュメントを参照してください。

http://docs.hol.vmware.com/announcements/nee-default-language.pdf


 

ラボモジュールリスト

ラボモジュールリスト

 

 

メイン コンソールの場所

 

  1. 赤い四角の領域には、メイン コンソールが表示されます。 実習ラボ マニュアルは、メイン コンソールの右側のタブに表示されます。
  2. 実習ラボによっては、左上の別のタブに追加のコンソールが用意されていることがあります。この場合、実習ラボ マニュアルの説明に従って、指定されたコンソールを開いてください。
  3. この実習ラボでは、開始時に 90 分のタイマーが表示されます。 このラボで行った作業内容は保存できません。 すべての作業は、実習ラボ セッション内に完了してください。 時間が足りない場合は、[EXTEND] をクリックして時間を延長することができます。 VMware イベントでご使用の場合は、実習ラボの時間を 2 回まで、最大 30 分延長できます。 [EXTEND] を 1 回クリックすると、時間が 15 分間延長されます。 VMware イベント以外でご使用の場合は、実習ラボの時間を最大 9 時間 30 分延長できます。[EXTEND] を 1 回クリックすると、時間が 1 時間延長されます。

 

 

アクティベーション プロンプトまたはウォーターマーク

 

実習ラボを初めて開始すると、Windows のライセンス認証が完了していないことを知らせるウォーターマーク (透かし) がデスクトップに表示される場合があります。 

仮想化の大きなメリットの 1 つは、仮想マシンを任意のプラットフォームに移動して実行できることです。 ハンズオン ラボも、このメリットを活用して複数のデータセンターから実行できるようになっています。 ただし、これらのデータセンターでは必ずしも同じ種類のプロセッサを使用しているとは限りません。プロセッサが異なると、インターネット経由で Microsoft 社のライセンス認証チェックが行われます。

この場合でも、VMware とハンズオン ラボは Microsoft 社のライセンス要件に完全に準拠しているため、安心してご利用いただけます。 ご利用の実習ラボは自己完結型ポッドであり、Windows のライセンス認証の確認に必要なインターネットへの完全なアクセスがありません。 インターネットへの完全なアクセスがないと、この自動プロセスは失敗し、このようなウォーターマークが表示されます。

これは表面上の問題であり、実習ラボへの影響はありません。 

 

 

キーボード以外の方法によるデータ入力

このモジュールでは、メイン コンソールでテキストを入力します。複雑なデータを入力する場合は、キーボードから直接入力する以外に、次の 2 つの方法を使用すると便利です。

 

 

実習ラボ マニュアルのテキストをクリックし、コンソールのアクティブ ウィンドウまでドラッグする

実習ラボ マニュアルに記載されているテキストやコマンド ライン インターフェイス (CLI) のコマンドをクリック (選択) し、メイン コンソールのアクティブ ウィンドウまで直接ドラッグできます。 

 

 

オンラインの国際キーボードにアクセスする

 

キーボード配列によっては、特定の文字や記号が入力しにくいことがあります。そのような場合、メイン コンソールに、オンラインの国際キーボードを表示して使用すると便利です。

  1. 国際キーボードを表示するには、Windows のクイック起動タスク バーで、キーボードのアイコンをクリックします。

 

 

アクティブなコンソール ウィンドウを 1 回クリックする

 

この例では、メール アドレスで使用される 「@」 記号をオンライン キーボードから入力します。US 配列のキーボードでは、「@」 記号は <Shift> + <2> というキーの組み合わせになります。

  1. アクティブなコンソール ウィンドウを 1 回クリックします。
  2. <Shift> キーをクリックします。

 

 

@>キーをクリックする

 

  1. <@> キーをクリックします。

これで、アクティブなコンソール ウィンドウに @ 記号が入力されます。

 

 

画面の右下部分を確認する

 

画面の右下部分で、すべての起動ルーチンが完了し、開始する準備ができていることを確認してください。表示が [Ready] になるまでお待ちください。これには数分間かかることがあります。 5 分経過しても [Ready] にならない場合は、サポートにお問い合わせください。

 

Control Center ブラウザ言語設定(日本語)

Firefox ブラウザ言語設定 (日本語表示)


vSphere Web Clientはブラウザベースです。日本語表示するためには、ブラウザの言語設定を日本語に設定します。

なお、vSphere Web Client 以外の一部ツールでは英語表記となります。これはハンズオンラボ環境特有のものです。


 

Firefoxの起動

 

Firefoxアイコンをクリックし、 起動します。

 

 

Firefoxブラウザの日本語化

 

1. ウィンドウ右上のメニューを開きます。

2. [Options]  をクリックします。

 

 

Firefoxブラウザの日本語化

 

左側メニューから [Content] を選択します。

 

 

Firefoxブラウザの日本語化

 

[Languages] の [Choose...] をクリックします。

 

 

Firefoxブラウザの日本語化

 

[Select a language to add...] をクリックします。

 

 

Firefoxブラウザの日本語化

 

1. プルダウンから [Japanese [ja] ] を選択します。

2. [Add] をクリックします。

3. [OK] をクリックします。

4. Firefox を再起動します。

 

Google Chrome ブラウザ言語設定(日本語表示)


vSphere Web Client はブラウザベースです。日本語表示にする為には、ブラウザの言語設定を日本語に設定します。

なお、vSphere Web Client 以外の一部ツールでは英語表記となります。これはハンズオンラボ環境特有のものです。


 

Google Chrome の起動

 

Google Chrome を起動します。

 

 

Google Chrome のメニューを開く

 

ブラウザウィンドウ右上のメニューを開きます。

 

 

Google Chrome の設定画面を開く

 

[Settings] をクリックします。

 

 

Google Chrome の詳細設定を表示

 

1. 画面を下へスクロールします。

2. [Show advanced settings...] をクリックします。

 

 

Google Chrome の言語と入力の設定

 

画面を下へスクロールし、[Language and input setting...] をクリックします。

 

 

Google Chrome の言語と入力の設定

 

[Add] をクリックします。

 

 

Google Chrome の言語と入力の設定

 

1. プルダウンから [Japanese - 日本語] を選択します。

2. [OK] をクリックします。

 

 

Google Chrome の言語と入力の設定

 

1. 左側 [Languages] 内の [Japanese] を一番上までドラッグで移動させます。

2. [Done] をクリックします。

3. Google Chrome ブラウザを再起動します。

 

モジュール 1 - VMware Integrated OpenStack (VIO)のご紹介 (30分)

OpenStack の基本


このラボでは、VMware Integrated OpenStackの概要を説明します。

注:既にOpenStackに精通している場合、あなたはこのチャプターを スキップ し、VMware Integrated OpenStackについて説明した同じモジュール内の次のセクションに進むことができます。


 

OpenStackとは?

OpenStackは、IaaS向けのAPIベースのサービスのフレームワークを提供するオープンソースソフトウェアです。OpenStackのフレームワークは、OpenStackのクラウドを構築するために、ハードウェアまたはソフトウェアベースのインフラストラクチャコンポーネントおよび管理ツールが必要です。OpenStackのサービスの「プラグイン」アーキテクチャは、OpenStackのクラウドを提供するために、さまざまなベンダー(VMwareなど)のインフラストラクチャ・ソリューション(例えばvSphereおよびNSXなど)を統合することを可能にします。

 

 

OpenStackはクラウドテクノロジースタックにおけるクラウドAPIレイヤ

基本的なクラウドの技術スタックは、次のような主要なコンポーネントで構成され ます:

1. ハードウェアインフラストラクチャ

2. ソフトウェアインフラストラクチャ(または仮想化レイヤ)

3. 基盤となるクラウドインフラストラクチャの消費とオーケストレーションを可能にするクラウドAPIレイヤ

4. ガバナンス、リソース計画、財務計画 、 等を 提供する クラウド管理レイヤは、複数 の 基盤となるクラウドファブリックを管理します

5. クラウドインフラストラクチャ上で動作しているアプリケーション

非クラウドのデータセンターモデルでは、アプリケーション(仮想マシン)の所有者から依頼を受けた複数のデータセンタ管理者は、アプリケーション・ワークロードを展開するソフトウェア・インフラストラクチャ・ツール(例えば、VMware vSphere)を使用して、アプリケーションの所有者に代わって物理コンピュータ、ネットワーク、およびストレージハードウェアに仮想マシンを展開します。

OpenStackは、ソフトウェア・インフラストラクチャを統合し、APIベースでインフラストラクチャの消費を可能にするソフトウェアです。 OpenStackは、アプリケーションの所有者が直接自分のアプリケーションをデプロイするために必要なコンピューティング、ネットワーク、およびストレージリソースを要求し、提供できる「セルフサービス」モデルを可能にします。

セルフサービスの主な利点は、アプリケーションの所有者が必要とするリソースへの「オンデマンド」アクセスを提供することで俊敏性を増加し、マニュアル+反復的な展開タスクを排除することにより、運用工数を削減することです。

 

 

OpenStackのコンポーネント

 

OpenStackは、いくつかの異なるサービスにインフラ展開機能を分割します。これらの各サービスは、そのプロジェクトコード名で知られています:

Nova :コンピュート サービス。

Neutron :ネットワークサービス(以前の「Quantum」)。

Cinder :ブロックストレージサービス。

Glance :イメージ サービス。

Keystone :認証サービス。

Horizon :Web GUI。

OpenStackのサービスは、基礎となるインフラストラクチャを管理および統合し、リソースを消費するために、エンドユーザーのためのAPIを公開しています。OpenStackの強みは、複数の異なる技術コンポーネントへの展開が選択できることに加え、コード自体さえカスタマイズすることが可能な高度にカスタマイズ可能なフレームワークです。

 

 

Nova

OpenStackのコンピュート(Nova)は、IaaSのシステムの主要部分であるクラウドコンピューティングファブリックコントローラです。コンピュータリソースのプールを管理し、自動化するように設計されており、広く利用可能な仮想化テクノロジーだけでなく、ベアメタルおよび高性能コンピューティング(HPC)構成で動作することができます。

 

 

Neutron

OpenStackのネットワーク(Neutron、以前のQuantum)は、ネットワークおよびIPアドレスを管理するためのシステムです 。OpenStackのネットワークは、ネットワークがクラウド展開のボトルネックまたは制限事項ではないことを実現するため、ユーザーにネットワーク構成のセルフサービス機能を提供します。

OpenStackのネットワークは、異なるアプリケーションやユーザーグループのためのネットワーキング・モデルを提供しています。標準モデルは、フラットなネットワークまたは VLANでサーバー及びトラフィックを分離します。OpenStackのネットワークは、固定の静的IPアドレスまたは DHCP でIPアドレスを管理します。 フローティングIP アドレスは、ユーザーがメンテナンス中または障害が発生した場合に、トラフィックをリダイレクトすることが可能であり、ITインフラストラクチャ内のすべてのリソースへ動的なトラフィックの再ルーティングを可能にします。

 

 

Cinder

Cinderは、OpenStackのためのブロック・ストレージサービスです。参照実装(LVM)を使用することでOpenStackのコンピュート プロジェクト(Nova)を通してエンドユーザーへストレージ・リソースを提供できるように設計されています。Cinderは、ブロック・ストレージ・デバイスのプールを仮想化し、セルフサービスAPIを介してそれらのストレージが実際に配備されている場所やデバイスのタイプの知識を必要とせずにストレージリソースを提供します。

 

 

Glance

OpenStackのイメージサービス(Glance)は、ディスクやサーバーイメージのためのディスカバリ、登録、および配信サービスを提供しています。保存されたイメージをテンプレートとして使用することができます。また、バックアップを無制限に保存しカタログ化することができます。イメージサービスは、OpenStackのオブジェクトストレージを含めた様々なストレージに、ディスクおよびサーバーイメージを格納することができます。イメージサービスAPIは、ディスクイメージに関する情報を照会するための標準的なRESTインターフェースを提供し、クライアントは新しいサーバーにイメージを配信することができます。

OpenStack.orgは他のOpenStackのモジュールと一緒に、半年ごとにGlanceを更新します。OpenStackは比較的新しいものであるため、アップデートの中で、既存のクラウドインフラストラクチャサービスをキャッチアップします。Glanceは、既存のレガシーインフラストラクチャに多くの拡張機能を追加します。例えば、VMwareと統合された場合、Glanceは、vMotion、HAとDRSなどのvSphereの高度な機能をもたらします。 VMotionはサービスを中断することなく、一つの物理サーバーから別のサーバーに、実行中のVMをライブマイグレーションする機能です。これにより、ダウンタイムなしでサーバーのハードウェアの保守を可能であり、動的かつ自動化された自己最適化されたデータセンターを実現します。

 

 

Keystone

OpenStackのアイデンティティ(Keystone)は、OpenStackのサービスにマッピングされたユーザーのディレクトリを提供します。これは、クラウド・オペレーティング・システム間で共通の認証システムとして機能し、LDAPなどの既存のバックエンドのディレクトリサービスと統合することができます。標準のユーザー名とパスワード資格情報、トークンベースのシステムのログインなど、複数の認証方法をサポートしています。また、カタログは、1つのレジストリにおけるOpenStackのクラウドにデプロイされたサービスのすべての照会可能なリストを提供します。ユーザーとサードパーティ製のツールは、プログラムでアクセスできるリソースを決定することができます。

 

 

Horizon

OpenStackのダッシュボード(Horizon)は、管理者とユーザーがアクセス、展開、リソースを自動化するためのグラフィカルインタフェースを提供します。デザインは、課金、監視、および追加の管理ツールなどのサードパーティ製品およびサービスに対応しています。ダッシュボードはサービスプロバイダや他の商業ベンダーにとってブランディングすることも可能です。ダッシュボードは、ユーザーがOpenStackのリソースと対話することができるいくつかの方法の一つです。開発者は、アクセスを自動化したり、ネイティブOpenStackのAPIまたはEC2互換のAPIを使用してリソースを管理するためのツールを構築することができます。

 

VMware Integrated Openstack (VIO)


注:このセクションでは、VIOのコンポーネントおよびインストール要件を紹介します。このセクションをスキップして、次へ進むことができます。

VMware Integrated OpenStack(VIO)は、VMware が OpenStackのディストリビューションを サポートし 、既存のVMwareインフラストラクチャ上で実行するためのものです 。VIOによりVMware管理者はVMwareコンポーネント上に容易にエンタープライズレベルのOpenStackのクラウドを展開することが可能です。つまり、OpenStack クラウドでVMware vSphereの優れた機能であるHA、DRS、またはVSAN等を利用可能であり、vRealize OperationsとvRealize Log Insightなどの他のVMware管理コンポーネントと統合することも可能であることを意味します。


 

VMwareの統合されたOpenStackのコンポーネント

VIOは、2つの主要なビルディング・ブロックであるVIOマネージャとOpenStackのコンポーネントで構成されます。Managerサーバ及び各OpenStackのコンポーネントのためのテンプレートとして使用するUbuntu Linuxの仮想マシンが含まれているOVAファイルとしてパッケージされています。

 

 

VIOコンポーネント

VMware Integrated OpenStackのOpenStackサービスは、次のコンポーネントによって構成された分散型の高可用性ソリューションとして展開されています。

• OpenStack コントローラー。アクティブ - アクティブクラスタで構成される、ホライゾンダッシュボード、Nova(API、スケジューラおよびVNC)サービス、Keystone、Heat、Glance、およびCinderサービスを実行している2つの仮想マシン。

• memcachedクラスタ。

• RabbitMQクラスター。すべてのOpenStackのサービスで使用されるメッセージングサービス。

• ロードバランサー仮想マシン。アクティブ - アクティブクラスタで構成され、内部およびパブリック仮想IPアドレスを管理する

• n-CPUサービスを実行するNovaコンピュート仮想マシン

• データベースクラスタ。OpenStackのメタデータを格納する3ノードMariaDB Galeraクラスタ。

• Swiftサービスを実行しているオブジェクトストレージ。

• DHCPノード。NSXがNeutronのプロバイダとして選択されていない場合は、これらのノードが必要です。

 

 

VIOの詳細

前述したように、VIOは、顧客及びVMwareのネットワークシステムビジネスユニットの内部クラウドのベストプラクティスを通して開発されたリファレンス・アーキテクチャーに基づき展開されたプロダクション グレードのOpenStackです。HAとDRSなどのvSphere機能を使用して高可用性を実現するために設計されており、各コンポーネントは冗長化されています。次のようにOpenStackのコアサービスが展開されています:

コントローラー -  コントローラーVMは、コアOpenStackサービスAPIと実行スケジューラを担います。Nova、Neutron、Glance、CinderとKeystoneサービスが実行されます。VIOは、アクティブ/アクティブ構成の2つのコントローラを展開します。

データベース – データベースVMは、メタデータを格納するためにOpenStackのサービスで使用されています。VIOは、アクティブ/パッシブ/パッシブで構成されるGaleraクラスタサービスによる3つの MariaDBデータベースを展開します。データは完全にデータベース間で複製されます。

memcached – Memcached VMは、インメモリのキーバリューストアとして使用されています。memcachedは、簡単にスケールアウト可能です。VIOは2 つのMemcached VMを展開します

RabbitMQ - サービス内やサービス間のOpenStackの通信はメッセージベースです。VIOは、メッセージングサービスとしてRabbitMQを展開します。これは、2つのVMに展開されます。

ロードバランサー -内部管理通信と外部APIアクセスの両方が2つの HAProxyロードバランサの仮想マシン間でロードバランシングされます。 VIOは、仮想IPアドレス(VIP)を使用して、APIサービス アイデンティティ エンドポイントを構成します。

Novaコンピュート –Novaコンピュートノードは、OpenStackクラウドの働きバチです。インスタンスの起動と終了を処理し、クラウドリソースの増加に応じてスケールアウトする必要があります。VIOは、単一のNovaコンピュートノードから始めて、OpenStackクラウドに追加されたそれぞれのvSphereクラスタのために新しいノードを追加します。

NSX - VIOはNeutronネットワーキングサービスを設定する一方、アンダーレイの仮想化されたネットワークコンポーネントの設定は行ないません。NSXまたはvDSのいずれかが以前に計画された環境に適した物理的なネットワークと、設定されていることを確認するために、バンドの練習のうちです。あなたはVIOクラスター創成の一部としてそのセットアップから設定情報を入力しますが、その環境を再構成されていません。

 

 

VIOのインストール要件

VMware Integrated OpenStackの展開を成功するには少なくとも次のものが必要になります。

 

VIOアーキテクチャのコンポーネント


このセクションでは、VIOと一緒に使用されているVMware製品との統合の概要を示します。VIOが初めての場合は、次へ進む前に、このセクションの簡単なレビューを参考にしてください。


 

VMware Integrated OpenStack (VIO) のアーキテクチャ

 

VIOは、VMwareのソフトウェア定義のデータセンターインフラストラクチャ(SDDC)の上に基づいています。主要なOpenStackのサービスに構成されたドライバを通して、VIOはコンピューティング、ストレージ、およびネットワークリソースの消費を最適化します。また、VIOではOpenStackクラウドを操作および管理するための既存ツールの使用を実現するため、vCenter ClientのOpenStack向けの固有の管理拡張機能、vCenter Operations Manager及びLogInsightとの連携が含まれます。

 

 

Nova コンピュート統合

vCenterドライバーは、vCenter APIコールを介して、OpenStackのNovaサービスへコンピュートリソースを公開しています。リソースは、クラスタレベルで抽象化され認識されています。Novaスケジューラは、新しいインスタンスの配置のためのvSphereクラスタを選択し、vSphere DRSは、実際のホストの選択とVMの配置を処理します。この設計は、OpenStackのインスタンスのVMが他のVMと同様にvSphereで取り扱われることを可能にします。 DRS、VMotionやHAなどのサービスがすべて利用可能です。

 

 

CinderとGlance統合

VMDKドライバは、データストア/ VMDKの抽象化を介してブロックデバイスとしてOpenStackのCinderサービスへストレージリソースを公開しています。VSANを含む任意のvSphereデータストアは、ブートおよび短命OpenStackのディスク用ストレージとして使用することができることを意味します。Glanceで管理するイメージは、データストアにVMDKまたはOVAファイルとして格納されることも可能です。

 

 

Neutronネットワーキングの統合

NSXのドライバーは、真のソフトウェア定義されたネットワークのためのvSphere分散仮想スイッチ(VDS)とNSXの両方をサポートしています。お客様は、VLANタギングを介して、OpenStackのテナントトラフィックを分離することができプロバイダのネットワークを作成するために、既存のvDSを活用することができます。また、プライベートIPオーバーレイ、論理ルーター、Floating IPとセキュリティグループなど論理ネットワークの動的な作成を提供するために、NSXを利用することができます。

 

 

管理統合

vSphereWebクライアントは、あなたのVMの(テナント、Flavors、論理ネットワークなど)への適切な用語で検索できるようにOpenStackの固有のメタデータを含むように拡張されました。VIOはまた、vSphereのリソースのOpenStackによる消費を管理するためのvSphere Clientのプラグインが含まれています。vCOPSとLogInsight用管理パックは、OpenStackのサービスから抽出されたメタデータに基づいて、OpenStackの特定の監視を可能にします。

 

VIO 2.5の新機能


VIO 2.5アーキテクチャでリリースされた新機能の一部について、このセクションで説明します。


 

このリリースの新機能

VMware Integrated OpenStackは、VMware vSphereの仮想プラットフォーム上でOpenStackの迅速な展開を可能にします。このリリースには、次の新機能と拡張機能を提供します。

 

 

異なるvCenter間で管理と計算クラスタを展開する機能

VMware Integrated OpenStack 2.5は、別々のvCenterサーバの管理および計算クラスタを展開することができます。これは、パフォーマンス、スケーラビリティ、可用性を高め、あなたのVMware Integrated OpenStackの展開の全体的な堅牢性と信頼性を向上させます。

 

 

小さい管理フットプリント

 

VIO2.5フレームワークが管理制御プレーンに消費するリソース量を懸念しますか?このリリースでは、より少ないハードウェアリソースを必要とする簡略化されたアーキテクチャを提供していますが、以前のリリースと同じレベルの可用性、スケール、及び性能を提供します。この単純化されたアーキテクチャでは、30%のフットプリントを削減することで、リソースを節約し、全体的な運用の複雑さを軽減します。

 

 

既存のvSphereテンプレートのサポート

 

お客様は、標準OpenStack APIを介して、シームレスに既存のvSphereテンプレートを活用することが可能です。本リリースでしゃ、直接 GlanceイメージとしてOpenStackにvSphereの仮想マシンテンプレートをインポートする機能により、従来課題であったOpenStackのクラウドにネットワークを介して大容量のディスクイメージをインポートするために必要な時間を削減します。これは、大容量イメージのより速い展開時間を可能にします。

 

 

LBaaS v2.0のサポート

VMware Integrated OpenStack(VIO)2.5はLBaaS v2.0をサポートしています。VMware Integrated OpenStack 2.5をインストールまたはアップグレードした後、LBaaS v1.0を続行するか、また、V2.0にv1.0からロードバランサのデータベースエントリを移行し、簡単な手順でV2.0への移行オプションがあります。

注:LBaaS v2.0に移行した後は、v1.0に戻すことはできません。

 

 

イメージサービスの向上

VMware Integrated OpenStack 2.5は、最初のインスタンス生成のためのより速い起動時間など、OpenStackのイメージサービスのパフォーマンス、より信頼性の高いインスタンスの起動、および優れたスナップショット機能を改善するために再設計が含まれています。

 

 

改善されたトラブルシューティング機能

VMware Integrated OpenStackのCLIコマンドの機能拡張は、削除可能な状態になったVMの検出、デバッグ出力を有するログ機能、ログファイルのローテートが可能であり、展開ステータスレポートでは同期の問題、コネクション失敗、データベースクラスタのサイズや接続数、プロセスの未起動等の情報が含まれます。

 

 

Neutron Layer 2 Gateway Support

 

Neutronを経由して利用できるようになったレイヤ2ゲートウェイサービスは、テナントの仮想ネットワークを物理ネットワークにブリッジすることが可能です。レイヤ2ネットワーク接続を介してではなく、ルーティングされたレイヤ3接続を介して、物理サーバ(多層アプリケーションのデータベース層等)上のリソースにアクセスする機能をユーザーに提供します。アプリケーション開発者のためのインフラストラクチャの展開プロセスを簡略化することができます.

• 論理ネットワークへのVLANの接続を有効にします

• データセンタートポロジ内の仮想および物理ネットワークをブリッジするアクセススイッチ、コア/アグリゲーションスイッチとEdgeルータを介して接続するNSX L2ゲートウェイサービスの選択肢を提供

• 柔軟なワークロードの配置とワークロードの移動を許可します

 

 

NFV(ネットワーク機能の仮想化)用に最適化

NFVのワークロードのための事前のテナント容量のサブスクリプション、きめの細かいインスタンスのパフォーマンス・チューニングおよびSR-IOVなどの改良された機能をサポートします。事前アサインした容量のサブスクリプションにより、定義したクォータに関わらず利用者にリソースを保証することが可能です。

 

Conclusion



 

You've finished Module 1

 

Congratulations on completing  Module 1.

If you are looking for additional documentation on VIO, try one of these:

Proceed to any module below which interests you most.

 

 

How to End Lab

 

To end your lab click on the END button.  

 

モジュール 2 - VIOの開始(60分)

VIO環境のレビュー


このセクションではVIO環境を学習します。


 

VIO環境へのアクセス

このラボでは、OpenStackの概要を学習しVIOプラグインを活用してVMを展開します。

 

 

ステータスの確認

 

開始する前に、 Lab Statusが Readyになるまで待つ必要があります。エラーメッセージが表示された場合は、ラボを終了し、再デプロイしてください。

 

 

Google Chromeを起動します

 

  1. Google Chromeのデスクトップアイコンをクリックします。

 

 

vCenterにログイン

 

  1. [Windowsセッション認証を使用してください]チェックボックスをクリックします。
  2. [ログイン] をクリックします。

 

 

VMware Integrated OpenStack プラグイン

 

  1. VMware Integrated OpenStackプラグインのアイコンをクリックします

 

 

VIOプラグイン

 

ここでは、VIOの展開、その状態、およびその他の重要な設定に関する情報を見つけることができます。

  1. [監視]タブをクリックします。

 

 

VIOプラグイン – 監視

 

VIOの展開情報はテナントVMのために使用される外部IPアドレスプールなどが設けられています。

 

 

VIOプラグイン- 管理- 設定-Syslogサーバ

 

  1. 管理タブをクリックします。
  2. 設定をクリックします。

ここでは、syslogサーバの設定が可能です。このラボの後半でこれらのログ設定を再確認します。

必要に応じて[管理]タブにある他の設定箇所の情報をご確認ください。このラボではこれらの箇所に対する変更は行ないません。

 

 

VIO展開の検証

 

  1. 画面の右端にあるOpenStack デプロイ アイコンをクリックします 。

 

 

VIO展開状況

 

展開済みのOpenStackが実行状態[実行中]と表示されていることを確認します。ステータスが実行中として表示されていない場合は、ラボを再起動する必要があります。

 

VIOへアクセス


このセクションでは、Horizon インタフェースからVIOを開始します。


 

OpenStack Horizonを開始しよう

 

Horizonポータルにログインすることにより、OpenStackを開始します。(VMwareのEUC製品であるHorizon と混同しないこと。)。Horizonは、管理者とユーザー両方のためのWebポータルを提供します。管理者は、インフラストラクチャの使用状況の確認、ユーザーの作成、自分のクォータの管理などの一般的なタスクのためのUIを使用することができます。クラウド利用者と比較すると、クラウド管理者は異なるインターフェース(ビュー)を持っています。クラウド管理者がすべてのインフラストラクチャリソースを管理することができますが、クラウド利用者は管理者によって作成されたインベントリだけを確認することができます。

私たちは、クラウド管理者のためのHorizon Web UIから開始して、その後、クラウド利用者のビューに切り替えます。

1. 新しいウィンドウで開くためにタブをクリックします。

2. ブラウザのバーでVIOブックマークをクリックします(HTTPS://vio.corp.local)。

 

 

OpenStack Horizonにログイン

 

  1. ユーザー名: admin.
  2. パスワード: VMware1!
  3. [Sign In]をクリックします。

 

 

OpenStack の管理の概要

 

最初に「Admin」としてログインし、次の重要なタブを確認ください。:

1. 上部には、管理者が特定のユーザーにビューを切り替えることができるドロップダウンメニューがあります。管理者がリソースが特定のユーザーに表示されているかどうか確認したい場合、ドロップダウンリストから当該ユーザーを選択することができます。ここでは、 ドロップダウンが選択されたユーザとして「admin」が選択されていることを 確認 し てください 。

注:「プロジェクト」タブがあります。OpenStackの中のすべてのユーザは、プロジェクト(次のセクションで詳細を説明)に属しています。管理者は、デフォルトで作成される「admin」プロジェクトに属しています。プロジェクトは、プロジェクトに属するすべてのユーザーが作成したすべてのインスタンス、ボリュームおよびその他のインベントリが含まれています。

2. [管理]タブを クリックし 、

3. [概要]タブを クリックします 。

 

 

 

ハイパーバイザー

 

  1. 管理パネル内の[ハイパーバイザー]タブを クリックします 。ここでは、OpenStackが管理しているハイパーバイザーを見ることができます。

vSphereクラスタが単一のハイパーバイザーとして示されることに注意してください。背景として、OpenStackは、単一のハイパーバイザーとしてそれぞれのvSphereクラスタを管理します。DRS、HAおよびVMotionなどの主要なvSphereの機能を、OpenStackが混乱することなくバックグラウンドで使用されることを可能にします。

注意 :このハイパーバイザーのリソースは、vSphereクラスタのリソースを表します。この場合、2つのESXホストと共有データストアが合算されています。ESXiはシステムリソースのためにメモリを確保しているため、ホストの合計よりも少ないメモリが表示されています。

 

 

フレーバー

 

  1. 管理パネル配下の[フレーバー]タブを クリックします 。フレーバーはクラウド利用者が展開するVMのサイズに関していくつかのオプションを提供します。クラウド管理者は、OpenStackの展開でサポートされているフレーバーを定義することができ、クラウド利用者は、フレーバーの組み合わせを選択して利用することが可能です。

 

 

イメージ

 

  1. 管理パネル配下の[イメージ]タブを クリックします 。

ここでは、仮想マシンを作成するためにテナントで利用できるようになるすべてのイメージのリストが表示されます。クラウド管理者は、クラウド利用者が利用できるようにするために、通常、共通のイメージをアップロードします。クラウド利用者は、さらに、独自のカスタムイメージを使用してイメージを拡張することができます。

注意 :ラボを簡単に進めるために、我々はすでに、2つのイメージをアップロードしています。1つはnginxはインストールされており、もう1つはwordpressがインストールされています。これらのイメージは、Photonオペレーティングシステム上で事前に構築されています。VMDKのディスクフォーマットは、vSphereで使用できることを示しています。

 

 

インスタンスの実行

 

ラボの一環として、我々はすでにnginxのとWordPressのサーバーを展開しています。

  1. プロジェクトをクリックします。
  2. コンピュートをクリックします 。
  3. インスタンスをクリックします 。

wordpress-1サーバは、10.10.10.25の内部IPおよび192.168.0.211の外部IPを持っています。

nginx-1サーバは、10.10.10.19の内部IPおよび192.168.0.201の外部IPを持っています。

 

 

ネットワーク トポロジー

 

OpenStackでセットアップされている現在のネットワークトポロジを確認します。

  1. プロジェクトパネル(左側余白の上部)を クリックします 。
  2. プロジェクトパネルの下の[ネットワーク]タブを 選択します 。
  3. [ネットワーク]パネル下の[ネットワーク トポロジー]タブを 選択 します。

このラボでは、我々は[External-Network」と「Test-Network」と呼ばれる事前に作成したネットワークを持っています。

2つのネットワークがテナントネットワーク(Test-Network)、およびプロバイダ ネットワーク(External-Network)を表します。複数のクライアントを持っているとき、それぞれ独自のテナントネットワークを持ちますが、すべては、インターネットなどの外部リソースへのゲートウェイまたは任意の企業システムとして、プロバイダ ネットワークを共有することになります。

nginxとwordpressのサーバは、テナントのTest-Network上に展開されており、Floating IPアドレスを使用してアクセスすることができます。

 

 

nginxサーバへアクセス

 

  1. ブラウザ上で新しいタブを開きます。
  2. Webサーバにアクセスするには、nginx-1のブックマークをクリックします 。

 

 

wordpressサーバへアクセス

 

  1. ブラウザ上で新しいタブを開きます。
  2. WordPressのサーバーにアクセスするため、wordpress-1のブックマークをクリックします。

 

 

test-networkを共有する

 

現在「admin」としてログインしているHorizonインターフェースに戻ります。すでに「admin」テナントだけが表示されるように、意図的に「test-network」を作成しました。他のユーザーもアクセスできるようにtest-networkを共有します。

  1. Horizonインターフェースにログインした ブラウザのタブをクリックします 。(注:この時点でnginxとwordpressのブラウザのタブを閉じてください。)
  2. [管理]を クリックします 。
  3. [ネットワーク]を 選択 します 。
  4. 「test-network」の[ネットワークの編集] を クリックします 。

 

 

ネットワーク設定の編集

 

  1. [共有]  チェックボックスにチェック を 入れ ます 。この設定により「Test-network」は後続のセクションで作成される他のユーザーと共有されます。
  2. [変更の保存] をクリックします。

 

プロジェクトとユーザー


OpenStackでは、ユーザーはプロジェクトと呼ばれるコンテナにグループ化されています。これらのプロジェクトは、OpenStackクラウド環境でのテナントです。各プロジェクトは、そのプロジェクト内のすべてのユーザーによって共有されるコンピュート、ネットワーク、ストレージリソースの割り当てられたクォータを持っています。プロジェクトは1プロジェクト内のユーザーが他のプロジェクトのユーザーおよびリソースを見ることができないよう互いに分離されています。ユーザーは1つ以上のプロジェクトに属することも出来ますが、少なくとも一つのプロジェクトに関連付ける必要があります。

このセクションでは、2つのプロジェクトを作成し、それらにユーザーを割り当てます。


 

プロジェクトメニューへアクセス

 

  1. 左側のナビゲーションバーの [管理]タブ を選択します。
  2. 管理配下の[ユーザー管理]タブをクリックします。
  3. ユーザー管理配下の [プロジェクト]タブをクリックします。
  4. [プロジェクトの作成]ボタンをクリックします。

 

 

プロジェクト[Tom]の作成

 

プロジェクトに名前を設定する必要があります。

  1. プロジェクト名として「Tom-Project」の名前を入力します 。
  2. [有効]チェックボックスがオンになっていることを確認します 。
  3. [プロジェクトメンバー ]タブをクリックします 。

 

 

Tom-Projectに管理ユーザーを追加する

 

  1. プロジェクトにユーザーを追加するために、プロジェクトメンバー タブ配下にあるAdmin の隣の 「+」ボタンをクリックします。
  2. [ プロジェクトの作成]ボタンをクリックしてください。

注:管理者アカウントは、vSphere Webクライアントからインスタンスのメタデータを引き出すために、プロジェクトに追加する必要があります。

 

 

プロジェクト[Melanie]の作成

 

注:プロジェクトの一つとして「Tom-Project」が表示されます。

Tom-Projectを作成するために取った手順を繰り返します。

  1. [プロジェクトの作成]ボタンを クリックします 。

 

 

Melanieプロジェクトに名前付けします。

 

  1. 「Melanie-Project」とプロジェクトの名前を 入力します。
  2. 「有効」チェックボックスがチェックされていることを確認します。
  3. 「プロジェクトメンバー」をクリックしてユーザーを追加します。

 

 

AdminユーザーをMelanie-Projectへ追加する

 

  1. Adminユーザーは、プロジェクトの一部として選択されていることを確認します。
  2. [プロジェクトの作成]をクリックします 。

 

 

 

Adminアカウントがプロジェクトに追加されました。

 

 

 

クォータの活用

クォータは、プロジェクトに割り当てられる利用可能な制限値を設定するために使用されています。クォータを実装することにより、OpenStackのクラウド管理者は、計画通りテナントに容量を割り当てることができますし、1テナントから共有リソースを独占されることを防ぎます。

 

 

Tom-Projectのクォータを参照する

 

  1. Tom-Projectに関連付けられたドロップダウンメニューを クリックします 。
  2. クォータの変更を クリックします 。

 

 

Tom-Projectのクォータを参照する

 

これらは、「Tom-Project」のデフォルトのクォータです。我々は、このラボでは任意の設定変更は行ないません。

「 保存」をクリックして、このページを閉じます。

 

 

新しいユーザーの作成

 

以前に作成したプロジェクトのためのユーザを作成します。

  1. [ユーザー]タブを選択します。
  2. ユーザーメニューを表示するため、[ユーザーの作成]をクリックします 。

 

 

Tom-Project向けのユーザーを作成

 

Tomという名前のユーザーを作成するために、フィールドに以下のデータを入力あるいは選択します。

  1. ユーザー名:Tom
  2. メール: Tom@raindrop.com
  3. パスワード: VMware1!
  4. 主プロジェクト: Tom-Project
  5. ロール: デフォルトの[ _member_ ]を選択
  6. [ユーザーの作成 ]ボタンをクリックしてください

 

 

Melanie-Project向けのユーザーを作成

 

新しいユーザー名としてMelanieを作成します。Melanieという名前のユーザーを作成するために、フィールドに以下のデータを入力するか選択します。

  1. ユーザー名: Melanie
  2. メール:melanie@raindrop.com
  3. パスワード: VMware1!
  4. 主プロジェクト: Melanie-Project
  5. ロール: デフォルトの[ _member_ ]を選択
  6. [ユーザーの作成 ]ボタンをクリックしてください

 

 

ユーザー検証およびサインアウト

 

これまでの操作により、ユーザーのパネルで、ビルトインアカウントに加えて、作成した2つの新しいユーザーが利用可能です。Adminとしてログアウトし、別のユーザーでログインします。

  1. Adminユーザーの隣にあるドロップダウンメニューをクリックします。
  2. [ログアウト]をクリックします。

 

ユーザーインスタンス


OpenStackでは仮想マシンをインスタンスと呼びます。ユーザーはインスタンス(仮想マシン)を展開し、既存または新規のOpenStackネットワークにそれらを添付します。


 

ユーザーインスタンスの作成

このセクションでは、OpenStackからインスタンスを作成するプロセスを例示します。

 

 

Tomとしてログインする

 

現在管理者としてログアウトしていますので、新しいインスタンスを作成するために、ユーザーTomとしてログインします。

Horizon Web UIに次の資格情報を使用して、ログインします。

  1. ユーザー名: Tom
  2. パスワード: VMware1!
  3. [Sign In] をクリックします 。

 

 

User の概要

 

概要セクションでは、クォータ制限に対してユーザーが消費している使用量が示されています。まだ何も展開していないので、セキュリティグループを除いてすべてのカテゴリが使用リソース0を表示しています。このラボでは、一つのセキュリティグループがすべてのユーザーが利用できる「内部共有」ネットワークで使用されます。後のセクションでネットワークの詳細を確認します。

 

 

インスタンスの起動

 

  1. 左側にある、[インスタンス]タブを クリックします 。
  2. [インスタンスの起動]ボタンを クリックします 。

 

 

インスタンスの設定

 

[Details]タブで、次のフィールドを入力します。

  1. インスタンス名: tom-nginx
  2. フレーバー:プルダウンメニューから m1.tinyを選択
  3. インスタンス数:2。
  4. インスタンスの起動ソース:プルダウンメニューから、イメージから起動を 選択します。
  5. イメージ名:プルダウンメニューから、nginx(272.2MB) を選択します。
  6. アクセスとセキュリティタブをクリックします 。

 

 

インスタンスの起動- アクセスとセキュリティ

 

  1. パスワードVMware1!を入力します。
  2. セキュリティグループで、Defaultが 選択されていることを確認してください 。
  3. [ネットワーク]タブをクリックします。

 

 

Test-networkを追加

 

  1. Test-network 隣にある[+]ボタンをクリックします。 (前の演習では、他の管理者以外のユーザーが使用できるようにこのネットワークを共有しました)

 

 

インスタンスの起動

 

  1. インスタンスを作成するには[起動]ボタンをクリックします。

 

 

インスタンスの展開

 

今、構築されているインスタンスを表示することができます。PhotonOS上に構築されたnginxのインスタンスは最小化されており数分以内に起動します。

インスタンスが実行されていることを確認してください。

  1. 展開の詳細を表示するには、 Tom-nginx-1のインスタンスをクリックします 。

 

 

インスタンスの詳細

 

ここでは、 展開されたインスタンスに関するIPアドレスやOpenStackが付与した一意のIDを見ることができます。完了したら、

1. [インスタンス]をクリックして、インスタンス画面に戻ります。

 

 

インスタンスのオプション

 

  1. インスタンスの右端にあるドロップダウンをクリックします。

ここでは利用可能なすべてのオプションを見ることができます。

 

 

インスタンスの概要

 

さて、概要画面に戻り、設定が更新されたかを確認することができます。

  1. ページの左側にある概要のリンクをクリックしてください。

新しいインスタンスを反映するようにグラフが更新されていることがわかります。

 

ボリューム


なぜボリュームが必要なのでしょうか?OpenStackでは、プロビジョニングしたインスタンスはローカルディスクを持っていますが、インスタンスをTerminateした場合、このディスクは永続的ではありません。

各営業日の終わりに1時間だけコンピュートが必要になるワークロードを想像してみてください。理想的には一日あたり必要な1時間だけインスタンスを利用したいと思います。しかしながら、あなたがローカルディスクだけを利用した場合は、インスタンスが実行する間に生成されたデータを失うことになります。そのためボリュームが必要となります。ボリュームは実行中のVMへオンデマンドで接続、取り外すことができる永続ストレージです。


 

ボリュームの活用

 

  1. 画面の左側にあるプロジェクトペイン内の[ボリューム]タブをクリックします。
  2. [ボリュームの作成]ボタンをクリックしてください

永続的なボリュームの作成を開始します

 

 

ボリュームの作成

 

以下を入力します。

  1. ボリューム名:tom-data-volume1
  2. 容量(GB):10
  3. [ボリュームの作成]をクリックします。

 

 

新しいボリューム

 

ボリュームが展開されるのをお待ちください。利用可能にステータスが変更されるのを待ちます。

  1. ドロップダウンボタンからボリュームの編集を選択し、接続の管理を選択します
  2. 現在のインスタンスにボリュームをアタッチします

 

 

インスタンスにボリュームをアタッチ

 

  1. tom-nginx-1インスタンスを選択します。
  2. [ボリュームの接続]をクリックします。

 

 

アタッチされたボリューム

 

ボリュームのページに戻ります

ボリュームが使用中の表示になるまで待ちます。

ボリュームが接続されると、tom-nginx-1上の接続先として、/dev /sdbと表示されます

接続されているボリュームを持つインスタンスを覚えておいてください。次の手順でこの情報が必要になります。

 

 

OpenStackを通してコンソールを起動します。

 

  1. [インスタンス]をクリックします。
  2. ボリュームが取り付けられているインスタンスを選択し、ドロップダウンメニューをクリックしてください。
  3. [コンソール]を選択します。

 

 

VMにログイン

 

  1. コンソールのみを表示するには、リンクをクリックしてください

 

 

VMにログイン

 

以下情報でログインします。(パスワードの更新が求められた場合は、新しいパスワードを設定してください)

username: root

password: VMware1!

 

 

ディスクの詳細を確認

 

コマンドプロンプトで次のコマンドを入力し、このインスタンス上のすべての接続されたディスクをスキャンします。

echo "- - -" > /sys/class/scsi_host/host0/scan

ディスクがスキャンされたら、すべてのパーティションを表示するために、以下のコマンドを実行します。

fdisk -l

2つ目のハードドライブが表示されていることがわかりますが、それはフォーマットやマウントされていません。

 

 

新しいボリュームのフォーマットとパーティション

 

次のコマンドを実行して/dev/sdb diskをフォーマットします。

fdisk /dev/sdb
Command (m for help): n

これにより新しいパーティションが作成されます。

Select (default p): Press Enter <leave default setting>
Partition Number: Press Enter <leave default setting>
First Sector: Press Enter <leave default setting>
Last Sector: Press Enter <leave default setting>
Command (m for help): w

wにより設定変更を書き込みfdiskツールを終了します。

再度fdisk -lコマンドを実行します。/ dev / sdb1と呼ばれる新しいパーティションが作成されていることがわかります。

以下のコマンドを使用してパーティションをフォーマットします。

mkfs.ext4 /dev/sdb1

変更を確認するため、再度fdisk –lを実行します。

fdisk -l

 

 

パーティションのマウント

 

以下コマンドにより新しいドライブにディレクトリを作成します。

mkdir /mnt/persistent-data

次にドライブをマウントします。

mount /dev/sdb1 /mnt/persistent-data

最後にドライブがマウントされていることを確認します。

df -h

/dev/sdb1がリスト表示されることを確認します。

 

 

テストファイルの作成

 

永続的なボリュームが機能していることを検証するために、永続と非永続的なボリューム上にファイルを作成します。その後、我々は別のインスタンスに永続的なボリュームを添付します。各コマンドの後Enterをクリックしてください。

echo "Hello non-persistent World" > /root/test-file1.txt
echo "Hello persistent World" > /mnt/persistent-data/test-file2.txt

   /mnt/persistent-data ディレクトリにアクセスし、test-file2.txtが作成されていることを確認します。

 

 

ボリュームの編集

 

これまでの演習により、フォーマットしたドライブにテストファイルを作成しました。現在アタッチしているインスタンスからボリュームをデタッチし、他のインスタンスにアタッチします。

OpenStack内のボリュームの画面に戻ります。あなたは、新しいタブを起動して、VIOを開き、ユーザーTom 、パスワード VMware1!でログインする必要があります 。

  1. ボリュームをクリックします。
  2. ボリュームの編集を選択し、接続の管理を選択します。

 

 

ボリュームの切断

 

  1. ボリュームの切断をクリックします。

この操作により、既存のインスタンスからボリュームを切断して、別のインスタンスにそれを接続することができます。

 

 

切断されたボリュームを確認

 

  1. 確認を求められた場合、ボリュームの切断をクリックします。

 

 

ボリュームのステータス変更

 

接続先 フィールドが空になっていることを確認します。

 

 

接続可能なボリューム

 

他のインスタンスにボリュームをアタッチし、ファイルが在るかどうかを確認します。

1. 接続の管理を選択します。

 

 

ボリュームのアタッチメント先を変更

 

  1. プルダウンリストからtom-nginx-2インスタンスを選択します。
  2. ボリュームの接続をクリックします

 

 

接続されたボリューム

 

tom-nginx-2インスタンス上にボリュームが取り付けられており使用中のステータスであることを確認します。また、このドライブのマウントポイントを確認します。

 

 

OpenStackを通してコンソールを起動

 

  1. インスタンスをクリックします。
  2. tom-nginx-2インスタンスをクリックします。
  3. コンソールタブをクリックします
  4. コンソールのみ表示するにはここをクリックします、 をクリックします。

 

 

VMにログイン

 

以下でログインします。(パスワードの更新が求められた場合は、新しいパスワードを設定してください)

username: root

password: VMware1!

 

 

新しいボリュームを再スキャンおよびディスクのマウント

 

接続されているディスク・デバイスの再スキャンをするようにコマンドプロンプトで次のコマンドを実行します。

echo "- - -" > /sys/class/scsi_host/host0/scan

新しいドライブが認識されましたら、ディスクをマウントする必要があります。このディスクは既にフォーマットされています。

mkdir /mnt/persistent-data
mount /dev/sdb1 /mnt/persistent-data
df -h

/dev/sbd1ディスクがマウントされたことを確認します。

 

 

マウントしたボリューム上のファイルを確認する

 

作成したファイルが在ることを確認します。

cd /mnt/persistent-data
cat test-file2.txt

Hello persistent Worldと表示されるはずです。

ブラウザの戻るボタンをクリックしてコンソール画面を終了します。

 

vCenterクライアントとOpenStack


vSphere Web クライアントに移動して、OpenStackとvCenter間でどのような情報が共有されているか見てみましょう。


 

vCenterクライアントとOpenStack

 

お使いのブラウザで、新しいタブに移動し、vCenterクライアントタブを開きます。

ホストおよびクラスタにアクセスします。

  1. RegionA01-COMP01クラスタ内のtom-nginx-1 VM上をクリックしてください。
  2. OpenStackによって展開されるときにはVMのメモセクションが更新されます。
  3. また、このVMはOpenStackの中で選ばれたNSXセキュリティグループの一部であることを確認します。
  4. OpenStack VMセクションまでスクロールします。
  5. OpenStackのHorizonで確認した情報が、vCenter内でも表示されていることを確認します。

 

 

Cynder Volume VMDKのためのシェルVM

 

tom-data-volume1という名前のパワーオフされたVMがインベントリに存在することを確認してください 。 これは、Tom ユーザーによって作成された永続的なボリュームの名前です。

  1. インベントリでこのVM名をクリックして、[概要]タブを表示します。

「仮想マシンのハードウェア」ウィンドウ内の概要で、作成したCynderボリュームのサイズと一致する10GBの単一のハードディスクであることが確認できます。これは、起動中のVMに接続されていない場合に、Cynderボリュームに対応する10GB VMDKを収容するための「シェル」VMです。

 

環境のクリーンアップ


このセクションでは、このモジュールで作成されたVMインスタンスをクリーンアップします。


 

インスタンスのクリーンアップ

 

このモジュールで使用したインスタンスを削除する必要があります。

もしログアウトされている場合、OpenStack Horizon Webページに戻りTom としてログインします。

  1. インスタンスタブをクリックします。
  2. 両方のインスタンスを選択します。
  3. インスタンスの削除をクリックします。

 

 

インスタンスの削除

 

タスクが削除中のステータスに変更されます。

タスクが完了しましたら、テーブルにインスタンスが表示されていないことを確認します。

 

 

vCenterでVMが削除されたことを確認

 

vCenterに戻り、インスタンスが削除されていることを確認してください。Tom-data-volume1というシャドウVMは永続ストレージにひもづいているので、残っていることに注意してください。

 

Conclusion



 

You've finished Module 2

 

Congratulations on completing  Module 2.

If you are looking for additional documentation on VIO, try one of these:

Proceed to any module below which interests you most.

 

 

How to End Lab

 

To end your lab click on the END button.  

 

モジュール 3 - VIOのネットワーク基礎 (60分)

モジュールの概要


ネットワークの伝統的なモデルでは、ユーザーはハードウェアで定義されてた既存のネットワークにVMのNICをアタッチします。しかし、プライベートクラウドでは、ハードウェア定義された既存のネットワークに頼ることは、柔軟性がなくスケーラビリティを妨げ、クラウドのユースケースの大部分をサポートしていません。クラウドのユーザーは、ネットワークトポロジを作成し、その用途に合わせて、ネットワーク・アクセス・ポリシーを変できる柔軟性が必要です。

ほとんどのIaaS / SaaSの環境においては、ウェブ、アプリケーション、データベースサーバーなどのサービスは、すべての異なるL2ネットワーク上で実行する必要があります。さらに、Webサーバは、インターネットにアクセスし、アプリケーションとデータベース・サーバーはインターネットアクセスをブロックする必要があります。これらのカスタマイズされたネットワークトポロジおよびネットワーク・アクセス・コントロールは、NSXによって実現可能で、VMware VIOで提供されるOpenStackのNeutron Plusginを通じて管理が可能です。


 

NSXにフォーカスしたVIOアーキテクチャ

 

VMwareのVIOは、ネットワーキングのための2つのデプロイメントオプションをサポートしています。1つのオプションは、分散仮想スイッチと伝統的なVLAN backedなもの、もう一つはVMware NSX利用したものです。このモジュールでは、VIO + NSXモデルに焦点を当てます。そのため、このモジュールは、VMware NSXの基本的な理解がありNSXに関する他のラボを実施している方を対象にしています。

VIO + NSXの多くの利点の一部は以下の通りです。

・ネットワークおよびセキュリティサービスのプログラムによるプロビジョニングは、プライベートクラウドを簡素化運用モデルにできる事に加えて、俊敏性と可視性を提供します。

・ステートフルファイアウォールやマルチテナントによる高度なセキュリティ(マイクロセグメンテーション)を提供します。

・大規模かつ高スループット(ルーティング、セキュリティグループ、QoS)を持つ高度な仮想化ネットワークサービスが実現できる。

・ロードバランサやファイアウォールなどのサードパーティ製のネットワークサービスとの統合(例えば、パロアルトネットワークス、F5、など)が可能。

 

 

 

NSXアーキテクチャとVIOの関係

 

VLANに頼る伝統的なOpenStackのネットワーク構成比較するとVMware NSXの利用は、多くの利点があります

スケール

管理と操作

拡張ネットワークサービス

 

 

モジュールの概要

モジュール2は、3つの主要セクションに分かれています。

1. 仮想ネットワークの基礎

このセクションでは、いくつかのインスタンスを作成し、それを複数の仮想ネットワークと接続し、論理ルーターで仮想ネットワークと物理ネットワークを接続してみます。また、vCenter内のNSXに対するNeutron Pluginが、Horizonダッシュボードでどのように表示されるか見ていきます。

2. セキュリティグループとマイクロセグメンテーション

このセクションでは、セキュリティグループを作成し、理解することに集中し、マイクロセグメンテーションを実現してみます。VIOとNSXの組み合わせは、分散型ファイアウォール機能を提供するだけでなく、セキュリティグループポリシーを同じL2ネットワーク上のインスタンス間でのアクセス制御のために使用するマイクロセグメンテーションも提供します。この機能は、従来のL2セグメントに依存することなく、適切なセキュリティ境界を設定する上で非常に重要で、NSX導入の大きな理由になっています。

3. 高度なネットワーク

このセクションでは、スタティックルーティングの設定、NATと分散ルーティングの有効化/無効化に焦点を当てます。高度なネットワークセクションのほとんどは、まだHorizon ダッシュボードではNSXに関するワークフローを持っていないため、Neutron CLI経由で実行します。また、Neutronプラグインがどのような事をしているのか、CLI実行後にvCenterの画面を見ていきます。また、VIO 2.5で新しく追加されLBaaSのデモンストレーションも行います。 

 

環境セットアップ


このセクションの目的は、モジュールを進めるにあたり、事前に必要なページをブラウザの各タブに開いておくことにあります。


 

クリーンアップ(必要に応じて)

 

あなたは、このモジュールを開始する前に、以前の他のモジュールで削除されているべきものが削除されているか確認して下さい。このラボ内の各モジュールは互いに関連して、直感的に順番に実施するように構成されていますが、各モジュールそそれぞれ独立して実施できるように設計されています。つまり、Module3を実施するにあたりModule2が終了している必要がない事を意味します。

 

 

vSphere Web Clientへアクセス

 

Google Chromeブラウザを起動しvSphere Webクライアントにアクセスします。

  1. 新しいタブで[vCenter Web Client]ブックマークをクリックし、vSphere Web Clientを開きます。(これは既に開いていれば不要な作業です。)
  2. [Windowsセッション認証を使用してください]のチェックボックスにチェックをいれます。
  3. [ログイン]ボタンをクリックします 。

注意 :はじめてvSphereのWebクライアントにログインする際は数分かかる場合があります。

 

 

Openstack Horizonダッシュボードへアクセス

 

  1. 新しいタブで、[VIO-Horizon]ブックマークを選択し、Horizon Dashboardログインページを開きます。
  2. ユーザー名: admin
  3. パスワード: VMware1!
  4. [Sign In] ボタンをクリックします。

注意:はじめてHorizonダッシュボードにログインする際、数分かかる場合があります。

 

論理ネットワーク


このセクションの目的は、テナントのネットワークを作成し、それがどのようにNSX管理画面で見えるかを確認することです。


 

現在のネットワーク

 

論理ネットワークが既に存在しているか見てみましょう。

  1. [プロジェクト] ボタンをクリックします 。
  2. [ネットワーク]ボタンをクリックします 。
  3. [ネットワーク]をクリックします 。

2つのネットワークが既に事前に作成されていることを確認することができます。1つ目のネットワークはExternal NetworkでOpenStackの外部に通信できるようにゲートウェイが設定されています。2つ目のネットワークは、test-networkという名前で存在し、Adminプロジェクトで最初に作成され、他のプロジェクトととも共有されている一般的な論理ネットワークです。

 

 

ネットワークの作成(仮想)

 

  1. “+ ネットワークの作成”ボタンをクリックし、ワークフローを開始します。

 

 

ネットワーク名

 

  1. HOL-networkという名前のネットワークを作成します 。
  2. [管理状態]チェックボックスがUPになっている事を確認します。
  3. [次へ]ボタンを クリックします。

 

 

サブネットとネットワークアドレス

 

  1. [サブネットの作成]チェックボックスがチェックされている事を確認します。
  2. [サブネット名]フィールドに、”HOL-subnet”を入力します。
  3. [ネットワークアドレス]フィールドに”11.0.0.0/24” を入力します。
  4. [次へ]ボタンをクリックします

 

 

サブネットの詳細

 

[Subnet Detail]タブでは、DHCP、DNSネームサーバまたはホストルートを設定する機能を提供しています。

  1. DHCP有効チェックボックスがチェックされ、有効になっていることを確認して下さい。
  2. [IPアドレス割当プール]フィールドのIPアドレス範囲として”11.0.0.10,11.0.0.19”を 入力します。
  3. [作成]ボタンをクリックします。

 

 

作成されたネットワークの確認

 

これで、利用可能なネットワークの一覧に新しく作成した「HOL-network」のネットワークが表示されます。そして既に稼働中状態です。

このように簡単に複数のサブネットを追加したり、完全に削除したりする事が可能です。

  1. "HOL-network"のリンクをクリックし、このネットワークセグメントの詳細な情報を取得します。

 

 

ネットワーク詳細

 

“ネットワークの詳細”ビューを使用すると、サブネットまたはポートを追加/削除することができます。この画面は後の作業でも利用します。

また、このビューは、ネットワークに紐付けられたIDを確認することができます。このIDはトラブルシュートの時や、vCenterで直接NSX論理スイッチを確認したりする際に使うものです。

注意)このIDはネットワーク毎にランダムに作成されます。(Labを実施する度に異なる可能性があります)

 

 

vCenterのNSX管理画面で確認できるIDとの比較

 

  1. このOpenStackネットワークが、どのようにNSX管理画面に表示されるかを確認するには、vSphere Web Clientのタブに移動します。
  2. [Network & Security]アイコンを クリックします 。

 

 

NSX論理スイッチ

 

  1. NSX論理スイッチのリストを表示するには、ナビゲータウィンドウ内の”論理スイッチ” メニューをクリックします 。

Horizonダッシュボードで見えたIDが、NSXによって作成された論理スイッチのIDと一致していることを確認してください。 NSXは、Neutronのプラグインを介してOpenStackのAPI呼び出しを通して、これらの設定を行います。

 

 

ネットワーク トポロジー

 

  1. Horizonダッシュボードのタブに戻ります。
  2. [ネットワークトポロジー]をクリックします 。

まだ何にも接続されていない、新しく作成した「HOL-network」という論理ネットワークが表示されます。

注意 :「 External-Network 」は、アプリケーションに外部接続を提供するために、OpenStack管理者によって事前に作成され、共有されています。

 

論理ルーター


次に、「HOL-Network 」から「 External-Network 」へトラフィックをルーティングする論理ルーターを作成する必要があります。すべてのVMは、HOL-Network論理ネットワークに接続され、デフォルトゲートウェイとしてこのルーターを使用することになります。


 

論理ルーターの作成

 

OpenStackのHorizonダッシュボードにアクセスします。まだ、adminとしてログインされていることを確認してください。

  1. [プロジェクト]をクリックします。
  2. [ネットワーク]をクリックします 。
  3. [ルーター]をクリックしてください。
  4. [ルーターの作成]をクリックします。

 

 

論理ルーター作成完了

 

  1. 名前に「HOL-Router-Exclusive 」を入力します。
  2. 管理状態がUPであることを確認します
  3. 外部ネットワークとして「external-network」を選択します
  4. Router Modeとして「Centralize/Exclusive」を選択
  5. Router Sizeとして「Compact」を選択
  6. [ルーターの作成]をクリックします

注意:ここでは、Centralize/Exclusiveを作成することを選択しました。このルーターは、他のテナントやプロジェクトで共有されません。

 

 

新しく作成されたルーターの確認

 

新しいHOL-Router-Exclusiveがルータータブに表示され、管理状態が「UP」であることを確認してください。

 

 

現在のネットワークトポロジー

 

  1. [ネットワークトポロジー]タブをクリックします 。

右側のボタンで、すでに作成されているもののダイアグラムが表示されます。

「HOL-Router-Exclusive」の上にマウスを移動すると詳細が表示されます。

※本ラボでは、トポロジー上にルーターが表示されない場合があります。HOL-Router-ExclusiveおよびHOL-networkを削除のうえ再度作成をすることで解消します。

 

 

ルーターを論理ネットワークに接続

 

  1. [ルーター]をクリックしてください
  2. [HOL-Router-Exclusive]をクリックします 。

 

 

ルーター インターフェースの追加

 

  1. [インターフェース]タブをクリックします 。
  2. このルーターに新しいインターフェイスを追加するため、[+インターフェースの追加]をクリックします。

注意)OpenStackによって生成されるルーターIDはランダムです。このIDは、NSXルーターの作成を検証するために後で使用します。

 

 

Subnetの選択

 

  1. [HOL-Network:11.0.0.0/24(HOL-subnet)]を サブネットドロップダウンメニューから選択します。
  2. [インターフェースの追加]ボタンを クリックします 。

"Success: Interface added 11.0.0.1"というメッセージが表示されます。

 

 

ルーター インターフェース

 

ルーターに接続されたインターフェイスを確認してください。

  1. 192.168.0.215  IPアドレスは、外部ネットワークに接続されたインターフェイス上にあります。→192.168.0.214以降のアドレスが自動的に割当られます。
  2. 169.254.128.10 IPアドレスは、MetaData Proxyネットワークに接続するインターフェイスです。
  3. 11.0.0.1のIPアドレスが、先ほど作成された「HOL-Network」の論理ネットワークに接続するインターフェイスです。これが、すべてのテナントVMのデフォルトゲートウェイになります。

 

 

ルーターとネットワーク接続の確認

 

ネットワークトポロジーに移動し、新たに作成された「HOL-netowrk」が「HOL-Router-Exclusive」に接続されている事を確認してみます。

  1. [ネットワークトポロジー]をクリックします 。

間違いなく作成されていたら、"HOL-Router-Exclusive"が「external-network」と「HOL-network」に接続されています。

「external-network」は、後のラボで、Melanieというユーザーが利用します。

 

 

NSX管理画面でルーターの確認

 

vCenter Webクライアントのホームページにアクセスします。

1. [Network and Security]をクリックします 。

 

 

作成されたNSX Edgeの確認

 

NSX EdgeタブでNSXEdgeの作成を確認します。

  1. [NSX Edges]をクリックします 。
  2. [HOL-RouterExclusive]のEdgeをクリックします 。

注意:NSX Edgeはスクリーンショットと異なるIDを持っている可能性があります。

 

 

NSX Edge構成の確認

 

この画面では、OpenStackを介して行われたすべてのNSX Edgeの設定を表示することができます。

  1. [管理]タブをクリックします 。
  2. [設定]タブをクリックします 。
  3. [インターフェース]をクリック。

ルーターに接続されたインターフェイスに注意してください。

  1. 192.168.0.215 IPアドレスは、外部ネットワークに接続されたインターフェイス上にあります。
  2. 169.254.128.10 IPアドレスは、metaData Proxyネットワークに接続するインターフェイスです。
  3. 11.0.0.1のIPアドレスが、先ほど作成された「HOL-ネットワーク」の論理ネットワークに接続するインターフェイスです。このネットワークに接続されるすべてのテナントVMのデフォルトゲートウェイになります。

 

テナント インスタンス


このセクションでは、作成された「HOL-nework」ネットワーク上のインスタンスを起動します。


 

インスタンスの起動

 

まだ "admin"ユーザーとしてログインしていることを確認してください。

  1. [プロジェクト]タブをクリックします 。
  2. [コンピュート]サブタブをクリックします
  3. [コンピュート]タブ内の[インスタンス]をクリックします 。
  4. [インスタンスの起動]をクリックします 。

 

 

インスタンスの詳細構成

 

  1. インスタンス名として「HOL-nginx」を入力します。
  2. フレーバーは「m1.tiny」を選択
  3. インスタンス数は「2」を入力します。
  4. インスタンスのブートソースは、「イメージから起動」を選択します
  5. ドロップダウンリストの「nginx(276.2MB)」のイメージ名を選択します。
  6. [アクセスとセキュリティ]をクリックします。

 

 

インスタンス構成  アクセスとセキュリティ

 

  1. キーペアは「viouser」を選択
  2. 管理者パスワード: VMware1!
  3. "default" セキュリティーグループを選択
  4. [ネットワーク]タブをクリックします

 

 

インスタンス構成  ネットワーク

 

このインスタンスが接続するネットワークを選択します。

  1. 「利用可能なネットワーク」のリストからHOL-neworkを選択します(「選択済みネットワーク」セクションに持っていくために「+」記号をクリック)
  2. [起動]をクリックしてインスタンスを起動してください。

 

 

作成されたインスタンスの確認

 

インスタンスが作成されると、それらは自動的に稼動中状態になります。

これらのインスタンスに割り当てられたIPアドレスをメモします。

 

 

ネットワークトポロジの確認

 

  1. [ネットワーク]タブをクリックします。
  2. [ネットワークトポロジー]をクリックします。

注意)HOL-Networkに2つのインスタンスが接続されているか確認して下さい。

また、HOL-nginx-1インスタンスのimage IDにも注意してください。これからvCenterでこのIDを確認します。

 

 

vCenterで新しく作成されたインスタンスを確認

 

vSphere Webクライアントにアクセスし、ホストおよびクラスタに進みます。

  1. [RegionA01-COMP01]のクラスタをクリックして展開します。
  2. [HOL-nginx-1]インスタンスをクリックします

注意)インスタンス名はOpenStack Image IDと同じです。

またvCenterは、このイメージはOpenStackによって作成されたという情報を持っており、flavor、テナント、ネットワーク情報も持っています。

 

フローティングIPアドレス


このセクションでは、我々が以前に作成したインスタンスにフローティングIPアドレスを割り当てます。


 

アクセスとセキュリティ

 

adminとしてログインされていることを確認します。

注意)すでに2つのフローティング IPをnginx-1とwordpress-1のVMに割り当てています。

  1. [プロジェクト]をクリックします。
  2. [コンピュート]をクリックします
  3. [アクセスとセキュリティ]をクリックします。
  4. [Floating IP]をクリックします。
  5. [Floating IPの確保]をクリックします。

 

 

フローティングIPの割り当て

 

  1. プールのドロップダウンリストから「external-network」を選択します
  2. [IPの確保]をクリックします。

 

 

IPをインスタンスに関連付け

 

注意)プロジェクトに割り当てられている新しいフローティングIPアドレスをメモします。それは、まだ任意のインスタンスにまだ割り当てられていないため、「停止中」の状態です。

割り当てられているIPアドレスは、ラボを実施しているタイミングで異なる可能性があります。

  1. [割り当て]をクリックします。

 

 

フローティングIP割り当ての管理

 

  1. ドロップダウンリストから、先ほど割り当てられていたフローティング IPを選択してください。
  2. ドロップダウンリストからサーバー:「HOL-nginx-1: 11.0.0.12」を選択します。※IP表示は異なる場合があります。
  3. [割り当て]をクリックします。

 

 

フローティングIP割り当てのレビュー

 

注意)192.168.0.217のIPアドレスがHOL-nginx-1サーバに割り当てられているか確認してください。※IPアドレスはラボにより異なる場合があります。

ステータスが「稼働中」状態にあることを確認してください。

 

 

HOL-nginx-1へのアクセス

 

HOL-nginx-1サーバーに疎通できるか確認します。

  1. ブラウザで新しいタブを起動します。
  2. 192.168.0.217のIPアドレスにアクセスします。※割り当てられたIPアドレスに置き換えて進めてください。

注意)サーバが到達不可能であることに注意してください。これから、次の章でサーバーに正しいセキュリティポリシーを適用し、これを修正します。

 

 

NSXでのフローティングIPの確認

 

  1. vSphere Webクライアントにアクセスし、ホーム画面に移動します。
  2. [Networking and Security]をクリックします。

 

 

NSX Edges

 

  1. NSX Edgeをクリックします。
  2. 名前が「HOL-Router-Exclusive」のNSXEdgeをダブルクリックします。

注意)ラボのデプロイタイミングにより、NSXEdgeIDが異なる場合があります。

 

 

NSX EdgeでのNATルールの確認

 

  1. [管理]をクリック
  2. [NAT]をクリックします。

注意)11.0.0.11(HOL-nginx-1サーバー)のDNATとSNATルールはフローティング IP 192.168.0.217にマッピングされています。

サブネット11.0.0.0/24からのSNATは、外部IPアドレス192.168.0.216(HOL-Router-Exclusive ルーター)に変換されるルールです。

※ラボの実施タイミングで自動的に割り当てられるIPが異なる場合があります。

 

セキュリティグループ


セキュリティグループは、インスタンスに適用されているIPフィルタルールのセットです。VIOとNSXの組み合わせでは、分散型ファイアウォール機能だけでなく、セキュリティグループポリシーにより、同じL2ネットワーク上のインスタンス間のアクセス制御をするマイクロセグメンテーションも提供します。この機能は、従来のL2セグメントに依存することなく、適切なセキュリティ境界を設定する事ができるため、NSXを導入する大きな理由になっています。

NSXマイクロセグメンテーションの詳細についてはNSXのラボ実施をご検討ください。

OpenStack内のすべてのプロジェクトは、 defaultセキュリティグループを持っています。では、現在のルールセットを確認してきましょう。


 

デプロイしたインスタンスのレビュー

 

まだ管理者ユーザとしてログインされていることを確認し

  1. [プロジェクト]をクリックします。
  2. [コンピュート]をクリックします
  3. デプロイされているインスタンスを確認するため、[インスタンス]をクリックします。
  4. [HOL-nginx-1 ]インスタンスをクリックします。

 

 

default セキュリティグループの確認

 

この画面では、VMに適用されているセキュリティポリシーを示しています。

デプロイ時は1つだけ選択されており、defaultセキュリティポリシーのみになっています。

このセキュリティポリシーは、VMから、0.0.0.0/0と:: / 0アドレスに通信が許可されていますが、初期通信がVM方向への通信は拒否されています。

 

 

アクセスとセキュリティ

 

  1. [アクセスとセキュリティ] をクリックします。
  2. [セキュリティーグループ]をクリックします。
  3. defaultポリシーの[ルールの管理] をクリックします。

ここで4つのセキュリティーグループが定義されていることを確認します。OpenStackのデフォルトでは、 defaultセキュリティグループのみ生成します。しかし、このラボでは、特定のアクションを許す他のセキュリティーグループも作成してみましょう。

 

 

default セキュリティグループの詳細ポリシー

 

このdefaultセキュリティグループで定義されたセキュリティポリシーを確認してください。

VMから外部への送信ルールは、全ての通信がIPv4 IPv6で許可されています。

一方、外部からVMへの受信ルールは、同一セキュリティグループにいるVMからの通信以外は、全て拒否されています。

 

 

アクセスとセキュリティ  HTTPアクセス

 

  1. [アクセスとセキュリティ]をクリックします。
  2. allow-http セキュリティグループの[ルールの管理]をクリックします。

 

 

セキュリティグループルールの管理  allow-http

 

セキュリティポリシーを確認します。

送信(出力)セキュリティポリシー:VMから、任意のIPv4、IPv6アドレスへのすべての通信を許可します

受信(入力)セキュリティポリシー:任意のリモートのIPv4アドレスからポート80へのアクセスを許可します。

 

 

セキュリティポリシーの変更

 

HOL-nginx-1 VMに関連付けられているセキュリティグループを変更します。

  1. [インスタンス]をクリックします。
  2. HOL-nginx-1 のドロップダウンメニューをクリックします。
  3. [セキュリティグループの編集]をクリックします。

 

 

インスタンスの編集  セキュリティグループ

 

  1. [ - ]をクリックし、defaultのセキュリティグループを削除します。
  2. [ + ]をクリックし、allow-http セキュリティグループを追加します。
  3. [保存]をクリックします。

 

 

HOL-nginx-1へのアクセス

 

  1. HOL-nginx-1サーバーにアクセスするため、ブラウザに新しいタブを開きます。
  2. フローティング IPアドレス、192.168.0.217を使用してサーバーにアクセスします

注:ラボによってフローティングIPアドレスが異なる場合がありますので、このラボで以前確認したIPアドレスを入力してください。

 

 

HOL-nginx-2のセキュリティグループ変更

 

前と同じ手順で、HOL-nginx-2サーバーに関連付けられているセキュリティグループを変更します。

VIOの画面に切り替えて、あなたがadminユーザーとしてログインされていることを確認してください。

  1. [インスタンス]をクリックします。
  2. HOL-nginx-2 VMに関連付けられたドロップダウンメニューをクリックします。
  3. [セキュリティグループの編集]をクリックします。

 

 

インスタンスの編集  セキュリティグループ

 

  1. [ - ]をクリックし、defaultのセキュリティグループを削除します。
  2. [ + ]をクリックし、allow-httpセキュリティグループを追加します。
  3. [保存]をクリックします。

 

 

NSXで構成の確認

 

NSXでのセキュリティグループの設定を確認します

[vSphere Web Client ]タブに切り替え、[Home]タブに移動します。

  1. [Networking and  Security]をクリックします。

 

 

NSX 分散ファイアウォールの構成

 

  1. [ファイアウォール]タブをクリックします。
  2. security groupセクションで、「SG Section: allow-http」を検索し、それを展開します。
  3. allow-httpセキュリティグループをクリックします。

セキュリティルールを確認します。そのルールは、Neutron NSX-Vプラグインを使用して、OpenStackと連携して作成されたものになります。

 

ロードバランサー


VMware Integrated OpenStack(VIO)2.5はLBaaS v2.0をサポートしています。

ここでは、ヘルスモニターを作成し、それをLBaaSサーバーインスタンスが含まれているLBaaS Poolと関連付けます。ヘルスモニターは、インスタンスが指定されたポート番号上で実行されているかどうかを確認するNeutronサービスです。


 

HOL-nginx-1の疎通確認

 

前の章で、HOL-nginx-1 VMにフローティングIPを割り当て、ポート80へのアクセスを可能にしています。

HOL-nginx-1サーバーへの接続がまだ働いていることを確認します。

  1. Chromeブラウザ上で新しいタブを開き、HOL-nginx-1サーバー用のフローティング IP 192.168.0.217を入力します。

「Welcome to nginx on Photon」の画面が表示されれば、HOL-nginx-1サーバーへの接続は正常に動作しています。

注意:ラボ環境により、フローティング IPアドレスが異なる場合があります。

 

 

HOL-nginx-1のフローティングIP割り当ての解除

 

この章でLBを構成します。そのため、HOL-nginx-1サーバーに割り当てられているフローティング IPアドレスの関連付けを無くす必要があります。

OpenStackのタブに切り替えて、あなたはまだ「admin」としてログインしていることを確認してください

  1. [プロジェクト]をクリックします。
  2. [コンピュート]をクリックします
  3. [アクセスとセキュリティ]をクリックします。
  4. [Floating IP]をクリックします。
  5. HOL-nginx-1の[割り当て解除]をクリックします。

 

 

割り当て解除の確認

 

  1. [割り当て解除]をクリックします。

 

 

 

解除の確認

 

192.168.0.217フローティングIPがHOL-nginx-1サーバーに関連付けられていないことを確認します。

 

 

HOL-nginx-1に疎通できない事を確認

 

HOL-nginx-1サーバでフローティングIPを割り当てていません。そのため、今は到達できません。

  1. 新しいタブを開くか、HOL-nginx-1サーバーにアクセスするために使用された既存のタブを開きます。
  2. アドレスバーにIPアドレス192.168.0.217を入力します。

接続がタイムアウトし、サーバーに到達できないことを確認します。

 

 

ロードバランサーの構成

 

VIOのタブに切り替えて、あなたはまだadminユーザとしてログインされていることを確認してください。

  1. [プロジェクト]をクリックします。
  2. [ネットワーク]をクリックします
  3. [ロードバランサー]をクリックします。
  4. [プール]をクリックします
  5. [プールの追加]をクリックします

 

 

プールの追加

 

新しいロードバランササーバープールを作成するために、次の情報を入力します。

  1. 名前:HOL-nginx-pool
  2. プロバイダー: vmwareedge
  3. サブネットのドロップダウンから11.0.0.0/24 を選択
  4. プロトコル: HTTP
  5. 負荷分散方式: Round_Robin
  6. 管理状態: UP
  7. [追加]をクリックします

 

 

プール作成の確認

 

新しいロードバランサのプールが作成されたことを確認します。次に、そのプールにメンバーを追加します。

  1. [メンバー]をクリックします。
  2. [メンバーの追加]をクリックします。

 

 

メンバー追加

 

次の情報を入力します。

  1. プール: HOL-nginx-pool
  2. メンバーの指定方法: 稼働中のインスタンスから選択
  3. メンバー: HOL-nginx-1 と HOL-nginx-2 をハイライト ※コントロールキーを押しながら選択
  4. ポート番号: 80
  5. 管理状態: UP
  6. [追加]をクリックします。

 

 

メンバー作成の確認

 

HOL-nginx-poolで、HOL-nginx-1とHOL-nginx-2サーバーのIPアドレスが利用可能であることを確認します

  1. [モニター]をクリックします
  2. [モニターの追加]をクリックします

 

 

モニター追加

 

単純なHTTPモニターを作成するには、次の情報を入力します。

  1. 種別: HTTP
  2. 遅延: 1
  3. タイムアウト: 1
  4. 最大試行回数: 2
  5. HTTP メソッド: GET
  6. URL : /
  7. HTTPステータスコードの期待値: 200
  8. 管理状態: UP
  9. [追加]をクリックします。

 

 

モニター作成の確認

 

HTTPモニターが作成されていることを確認します。

ロードバランサーのプールにこのHTTPモニターを関連付けます

  1. [プール]をクリックします
  2. ドロップダウンメニューをクリックし、モニターの割り当てを選択

 

 

モニターの関連付け

 

  1. 作成したHTTPモニタを選択します。
  2. 割り当てをクリックします。

 

 

LB PoolにVIP(仮想IP)を追加

 

これで、ロードバランサ作成の最後のステップです。

  1. ドロップダウンリストをクリックし、仮想IPの追加 を選択します。

 

 

VIP追加

 

VIPを作成するには、次の情報を入力します。

  1. 名前: HOL-nginx-VIP
  2. 仮想IPのサブネット: Select: 11.0.0.0/24
  3. ポート番号: 80
  4. プロトコル: HTTP
  5. セッション永続性: セッション永続性なし
  6. 管理状態: UP
  7. [追加] をクリックします。

 

 

VIPの確認

 

HOL-nginx-poolはHOL-nginx-VIPに関連付けられていることを確認します。

 

 

フローティングIPとLB VIPの関係

 

11.0.0.0/24サブネット上でVIPを作成しているので、接続のための外部のフローティングIPアドレスと、そのVIPを関連付ける必要があります。

  1. [プロジェクト]をクリックします。
  2. [コンピュート]をクリックします
  3. [アクセスとセキュリティ]をクリックします。
  4. [Floating IP]をクリックします。
  5. 192.168.0.217 Floating IP の[割り当て]をクリックします。

注意:以前もお伝えした通り、ラボによってフローティングIPが異なる可能性があります。

 

 

フローティングIP関連付けの管理

 

  1. 関連付けるフローティングIPアドレスを選択します。ラボを作成した時点の環境では、192.168.0.217でした。
  2. IPを割り当てるポートとしてHOL-nginxの-VIPを選択します。
  3. 割り当てをクリックします。

 

 

フローティングIPとロードバランサ VIPの関係

 

ロードバランサのVIP 11.0.0.13が、192.168.0.217に関連付けされ、ステータスが稼働中になっています。

 

 

ロードバランサーVIPへの疎通確認

 

192.168.0.217はHOL-nginxの-VIP IP 11.0.0.13のフローティングIPです。このVIPのロードバランスメンバーは、HOL-nginx-poolです。

新しいタブを開くか、以前に開いていたタブに移動します。

  1. Floating IPに 192.168.0.215のIPを入力します。

ロードバランシングされているHOL-nginx-1とHOL-nginx-2サーバーへ接続されていることを確認します。

 

 

NSXでのロードバランサー設定の確認

 

VIOを通してLBが設定されていることを、NSX管理画面で確認してみます。

vSphere WebクライアントのHome画面に移動し、[Network and Security]をクリックします。

 

 

Access NSX Edge

 

  1. [NSX Edge]をクリックします。
  2. [HOL-Router-Exclusive]をダブルクリックします。

注:ラボ環境によって、EdgeIDが異なる場合があります。

 

 

NSX - LB - Global Configuration

 

  1. [管理]をクリックします。
  2. [ロードバランサー]をクリックします。
  3. [グローバル構成]をクリックします

ロードバランサーのステータスが有効になっていることを確認してください。

 

 

NSX - LB - Application Profiles

 

  1. アプリケーションプロファイルタブをクリックします。

applicationProfile-2は、OpenStackのUUIDで使われる長い名前を持っているか確認してください。これが前の演習の一環として作成されたプロファイルです。

 

 

NSX - LB - Service Monitor

 

  1. [サービス監視]をクリックします。

monitor-2は、OpenStackを通じて作成されました。このモニタに関連する他の構成パラメータをメモしておいてください。

 

 

NSX - LB - Pools

 

  1. [プール]をクリックします。

IPアドレス11.0.0.11と11.0.0.12を持つメンバープールを確認してください。

 

 

NSX - LB - Virtual Servers

 

  1. [仮想サーバ]をクリックします。

virtualServer-2のVIPは、 11.0.0.13となっています。※ドロップダウンリストで探します。

 

 

NSX - Edge - Interfaces

 

  1. [設定]をクリックします
  2. [インターフェース]をクリックします。

外部インターフェースは、2つのIPアドレスを持っています。 192.168.0.216はテナントルーターの外部IPです。192.168.0.217は、外部ネットワーク上のフローティングIPアドレスです。

vNIC#1は、metadata-proxyの設定に使用されます。これはより高度な内容となるので、このラボでカバーしません。

vNIC#2は、すべてのワークロードのVMがサブネット11.0.0.0/24に接続する際の内部ネットワークです。11.0.0.13は、そのサブネット上の内部のLB VIPです。

 

 

NSX - Edge - NAT

 

  1. NATタブをクリックします。

最初の2行は、NSX LB VIPと外部フローティング IPをマッピングしたSNATとDNATのルールです。

最後の行は、Edgeの内部インターフェイス上の11.0.0.0/24のサブネットから発信されるすべてのトラフィックに使用されるSNATルールを表します。

 

環境のクリーンアップ


ここで、このセクションで作成された論理ネットワーク、インスタンス、ルーターなどを削除します。


 

インスタンスの削除

 

VIOにadminユーザとしてログインしていることを確認してください。

  1. [プロジェクト]をクリックします。
  2. [コンピュート]をクリックします
  3. [インスタンス]をクリックします。
  4. HOL-nginx-1およびHOL-nginx-2 VMを選択します
  5. [インスタンスの削除]をクリックします。

 

 

インスタンス削除の確認

 

インスタンスが消されているか確認して下さい。

 

 

ロードバランサーVIPの削除

 

ロードバランサのVIPを削除します

  1. [プロジェクト]をクリックします。
  2. [ネットワーク]をクリックします
  3. [ロードバランサー]をクリックします。
  4. HOL-nginxのプールに関連付けられたドロップダウンメニューを展開し、[Delete VIP]をクリックします。

 

 

VIP削除の確認

 

  1. [Delete VIP] をクリックして、削除します。

 

 

ロードバランサープールの削除

 

関連するVIPを削除したので、LBプールも削除できます。

  1. HOL-nginxのプールを選択します
  2. [プールの削除]をクリックします

 

 

ルーターの削除

 

LBプールとそれに関連したVIPを削除したので、ルーターも削除できます。

  1. [プロジェクト]をクリックします。
  2. [ネットワーク]をクリックします。
  3. [ルーター]をクリックしてください。
  4. HOLRouter-Exclusiveを選択してください。
  5. [ルーターの削除]をクリックしてください。

 

 

ネットワークの削除

 

これで、HOL-Network上に接続されたすべてのコンポーネントを削除しましたので、HOL-Networkも削除することができます。

  1. [ネットワーク]をクリックします
  2. HOL-Networkを選択します
  3. [ネットワークの削除]をクリックします

 

 

End of Section

これでこのモジュールは終了です。

 

Conclusion



 

You've finished Module 3

 

Congratulations on completing  Module 3.

If you are looking for additional documentation on VIO, try one of these:

Proceed to any module below which interests you most.

 

 

How to End Lab

 

To end your lab click on the END button.  

 

モジュール 4 - VIO高度なネットワーク(60分)

高度なネットワーク


このセクションでは、NATと分散ルーティングの有効化/無効化、スタティックルーティングを設定する事に焦点を当てます。高度なネットワークセクションのほとんどは、まだHorizonダッシュボードから操作ができないため、NeutronCLI経由で実施する必要があります。また、Neutronプラグインが NSXのコマンドとマッピングしていることを確認するために、CLIとvCenter上のNSX管理画面を切り替えてみていきます。おそらく他のベンダーでは行う事ができない分散型ルーティングは、このセクションの中で最も興味深い機能です。


 

OpenStack Managementサーバーへのログイン

 

すべてのCLIコマンドがプリインストールされているOpenStack管理サーバー(OMS)を利用します。

  1. Puttyを起動します
  2. oms.corp.localを選択します
  3. SSHで接続します。

OMSにログインしたら、 adminテナントとしての、OpenStackの環境変数を読み込みます

. cloudadmin.rc

ここから、OpenStackのCLIツールで作業します。

 

 

スタティックルートの作成

 

まず、NeutronCLI経由でrandom static routeを作成し、それがどのようにvCenter上のNSX管理画面に見えてくるか確認してみましょう。まず、以下のコマンドで現在利用可能なルーターを知っておく必要があります。

neutron router-list

次に、NeutronCLI経由でスタティックルートを追加してみましょう。

neutron router-update test-router-exclusive --routes type=dict list=true destination=192.168.110.0/24,nexthop=192.168.0.2

注意:この手順では、スタティックルートの接続を実際にテストすることはありません。

 

 

OpentStack CLIでスタティックルートの確認

 

ルートが追加されたことを確認し、他の経路情報があるかどうかを確認してみましょう。

neutron router-show test-router-exclusive

 

 

OpenStack Horizonでのスタティックルートの確認

 

OpenStackのHorizon Webからもスタティックルートを確認(および作成)することができます。プロジェクト > ネットワーク > ルーターに移動し、test-router-exclusiveをクリックして下さい。Static Routesタブを選択すると 、先ほど作成したスタティックルートが表示されます。

 

 

vCenterのNSX管理画面

 

  1. vSphere Web Clientのタブに移動し、NSX上で新しく作成されたスタティックルートがどのように表示されているかみてみましょう。
  2. Network and Securityアイコンを クリックします 。

 

 

NSX Edgeの詳細確認

 

  1. ナビゲーターメニューのNSX Edgeをクリックします 。
  2. 名前が、test-router-exclusive-で始まるNSXEdgeをダブルクリックしてください 。

 

 

NSX Edgeスタティックルーティング

 

  1. [ 管理 ]タブをクリックします 。
  2. [ルーティング]セクションをクリックします 。
  3. [固定ルート]をクリックします 。

NeutronCLIを使用して作成されたスタティックルートがNSX上の静的ルートリストにマッピングされていることを確認してください 。

コマンドプロンプトに戻って、NeutronCLI経由ですべてのスタティックルートを クリアします。

neutron router-update test-router-exclusive --routes action=clear

 

 

SNATの無効化(Source NAT)

 

OMSのコマンドプロンプトウィンドウに戻って、Neutron CLIコマンドが実行できる環境にいるか確認して下さい。

現在の論理ルーターをリストします。

neutron router-list

test-router-exclusiveの詳細を一覧表示します。

neutron router-show test-router-exclusive

VIOでは、SNATはデフォルトで有効で、OpenStack環境内外の通信を行う主な方法です。SNATを無効にすることによって、外部からテナントネットワークへのトラフィックをブロックできます。

SNATを無効にするには、次のNeutron CLIコマンドを実行します。

neutron router-gateway-set --disable-snat test-router-exclusive external-network

再度下記を実行します。

neutron router-show test-router-exclusive

プロパティenable_snatがfalseに設定されていることがわかります。

***重要***あなたはこの演習の一環として、SNATを無効にしたため、外部接続がありません。それを再度有効にするために、少し先のNeutron CLIコマンドを実行する必要がありますので、手順を飛ばさず実施してください。

 

 

vCenterのNSX管理画面へ移動

 

  1. vSphere Web Clientに移動し、新しく作成された静的ルートがNSX上でどのように表示されているか確認します。
  2. Network and Securityアイコンを クリックします 。

 

 

NSX Edgeの詳細確認

 

  1. ナビゲーターメニューのNSX Edgeをクリックします 。
  2. 名前が、test-router-exclusive-で始まるNSX Edgeをダブルクリックしてください 。

 

 

vCenter NSX管理画面でのNAT

 

  1. [管理 ]タブをクリックします 。
  2. [NAT]セクションをクリックします 。

前のステップでNeutronCLIを使用してNSXにマッピングされた"ESGルーター"を無効にしたため、default SNATエントリが存在しない事が確認できます。唯一のNATエントリはフローティング IPがアタッチされた、nginx-1用とworldpress-1用になっています。

 

 

SNAT(Source NAT)の再有効化

 

***重要***あなたはこの演習の一環として、SNATを無効にしたため、外部接続がありません。それを再度有効にするために、少し先のNeutron CLIコマンドを実行する必要がありますので、手順を飛ばさず実施してください。

まず、test-router-exclusiveの詳細(UUIDなど)を確認します。

neutron router-show test-router-exclusive

再度SNATを有効にするには、以下のコマンドにあなたの環境の外部ネットワークのネットワークIDの文字列をカット&ペーストします。

neutron router-update test-router-exclusive --external_gateway_info type=dict network_id=56fad53e-bf5f-40e9-83a4-f46cfe33a51f,enable_snat=True

再度下記を実行します。

neutron router-show test-router-exclusive

プロパティenable_snatが再びtrueに設定されていることを確認します。

 

 

NSX EdgeのSNAT詳細確認

 

NSX Edge Serviceゲートウェイ test-router-exclusive...のSNATセクションに戻って見ると、 再びデフォルトSNATが確認できます。

 

 

分散ルーティング概要

分散ルーティングは、vSphereホストのカーネルでL3ルーティングを行う点が大きな特徴です。それぞれのホストは論理的なラインカードのようなもので、DLR(Distributed Logical Router)が構成され、1つの論理ルーターシャーシと同じように管理されています。DLRは、仮想ネットワーク内のEast-Westトラフィックを処理する「デバイス」として機能してくれます。このトラフィックは、低レイテンシと高スループットを持つようにするため、できるだけワークロードに近いホストで処理を行うことは理にかなっています、その処理をDLRが実行します。 VIOは、Neutronプラグインを介し深くNSXと統合されているため、OpenStack環境でもこの強力なNSX機能を利用することができます。

NSXにおける分散論理ルーティング(DLR)の詳細については、HOL-1703-SDC-1のラボで詳細を確認することができます。

それではVIOとどのように機能するかを見てみましょう。

 

 

DLRとそのトポロジー

 

これからのいくつかの手順で、NeutronCLIとHorizonダッシュボードを使用して上記のサンプルトポロジを構築します。

 

 

分散ルーターの作成

 

HorizonのWebインターフェイスに戻り、dist-routerという名前の分散ルーターを作成します。プロジェクト > ネットワーク > ルーター > ルーターの作成に移動します。名前にdist-routerを入力して、外部ネットワークとしてexternal-networkを選択し、ルーターモードとして分散ルーターを選択します。

上記の代わりに、OpenStackの管理サーバー(OMS)で次のNeutronコマンドを使用して、分散型ルーターdist-routerを作成することもできます。

neutron router-create dist-router --distributed True

 

 

2つのネットワークを作成  Step 1

 

HorizonのWebインターフェイスを使用してapp-networkと web-networkの2つのネットワークを作成します。これからapp-networkの手順のみ実施しますが、同様の手順でweb-networkも作成して下さい。(異なるサブネットを利用してください)

プロジェクト>ネットワーク>ネットワークに進み、「+ネットワークの作成」をクリックします。

 

 

2つのネットワークを作成  Step 2

 

このステップでは、10.10.30.0/24を使用して、 app-subnetサブネットの詳細情報を追加します。( web-subnetは10.10.40.0/24を利用します)

 

 

2つのネットワークを作成  Step 3

 

DHCPは有効で、10.10.30.0/24,10.10.40.0/24のサブネットでは、.1がデフォルトゲートウェイ、.2がDHCPサーバ、.3から.254がIPアドレスとして利用できます。DNSサーバーとしては、Windows DNSサーバーがインストールされているコントロールセンター(192.168.110.10)を使用します。作成をクリックして、app-network( 10.10.30.0/24を使用)と、続いてweb-network(10.10.40.0/24を使用)を作成します。

 

 

新しいネットワークの作成

 

Network Overviewで、2つの新しいネットワークapp-networkと web-networkとそれぞれに関連するapp-subnetとweb-subnetが確認できます。

 

 

分散ルーターにネットワークを追加

 

[dist-router]をクリックし、詳細を確認します。

 

 

インターフェースの追加

 

詳細なルータービューを見てみるためdist-router をクリックします 。

 

 

web-networkとapp-networkをインターフェースとして追加

 

  1. Subnetドロップダウンメニューからapp-network: 10.0.30.0/24(app-subnet)を選択します。
  2. [Add Interface]ボタンを クリックします 。

web-network: 10.10.40.0/24(web-subnet)も同様に作業を行って下さい。

注意 :分散ルーターは、VXLAN-backedのネットワークのみサポートしています。(VLANはサポートされていません)

 

 

ルーターの詳細確認- インターフェース

 

最後のいくつかのステップが正常に完了すると、スクリーンショットのように3つのインターフェース(2つは内部、1つは外部)がdist-routerに接続されます。

 

 

トポロジー ビュー

 

このネットワークトポロジービューでは、新しく作成された分散型ルーターのdist-routerに接続されているすべてのネットワークを見ることができます。

 

 

3 Novaインスタンスの作成

 

3つのVMインスタンスを作成するにあたり、以下のコマンドで、allow-ping seurity groupのUUIDなどを確認し、正しいネットワーク情報を調べます。

neutron net-list
nova secgroup-list

これから、OMSコマンドラインで次のコマンドを使用して3つの新しいNovaインスタンスを作成します。単純化のために、3つすべてのVMで同じnginxのイメージを使用します。

nova boot --image nginx --flavor m1.small --nic net-id=d61d29ae-5c22-4c77-af7a-5bcc14381975 --security-groups 2eaecb8f-d81f-4d9b-b860-0ff0c352fbe6 web-01
nova boot --image nginx --flavor m1.small --nic net-id=d61d29ae-5c22-4c77-af7a-5bcc14381975--security-groups 2eaecb8f-d81f-4d9b-b860-0ff0c352fbe6 web-02
nova boot --image nginx --flavor m1.small --nic net-id=7660f542-2c12-4d16-9fbb-04fdc9057b65--security-groups 2eaecb8f-d81f-4d9b-b860-0ff0c352fbe6 app-01

 

 

ネットワークトポロジーの確認

 

ネットワークトポロジービューで、3つの新しいVMが、上記スクリーンショットのように、正しいネットワーク( app-01は app-networkに、web-01 / web-02にweb-networkへ)に接続されているかチェックできます。

 

 

フローティングIPの追加

 

フローティング IPのマッピングを関連付けることができるように、 インスタンスビューに移動します。

  1. プロジェクトボタンをクリックします 。
  2. コンピュートボタンをクリックします 。
  3. インスタンスメニューをクリックします 。
  4. web-01のドロップダウンメニューをクリックします
  5. FloatingIPの割り当てをクリックします 。

web-02も同様に作業してください 。

pingを実行できるように、webサーバーが外部アドレスを持つようにフローティング IPを割り当てる事が重要です。

 

 

web-01とweb-02にフローティングIPを関連付け

 

  1. フローティングIPを生成するために、+ボタンをクリックします(ドロップダウンメニューに現れる新しいFloating IPを選択します)
  2. 割り当てボタンを クリックします 。

web-02も同様に作業してください。

 

 

フローティングIP関連付けの確認

 

正しく行われた場合、web-01とweb-02に追加されたIPが確認できます。

 

 

vCenterに移動

 

  1. vSphere Web Clientに移動し、OpenStackで新しく作成されたセキュリティグループはNSXでどのように表示されるかを確認してみます。
  2. Network and Securityアイコンを クリックします 。

 

 

vCenterのNSX管理画面で分散ルーターの構成確認

 

VIOによって作られた、dist-routerと呼ばれる論理ルーターと、dist-router-plrと呼ばれるESGを確認する事ができます。論理ルーターはEast-Westにスケールアウトし、ESGはNorth-SouthにゲートウェイやProvider Logical Router(PLR)の用途で利用します。それでは、論理ルーターの方から詳細を確認してみましょう。

dist-router-....IDをダブルクリックします。

 

 

論理ルーターインターフェース

 

アタッチした3つのネットワークはHorizonダッシュボードで確認できます。一つは外部向けで、2つの内部向けです。

Navigatorウィンドウ内のNetwork and Securityをクリックして前の画面に戻ります。

 

 

NSX Provider Logical ルーターの確認

 

dist-router-plr...IDをダブルクリックします.

 

 

ESGインターフェース

 

  1. [ 管理 ]タブをクリックします 。
  2. [ 設定 ]オプションをクリックします 。
  3. 接続されたDLRと外部接続を表示するために、[インターフェイス]をクリックします 。

DRLとESGは、Horizonダッシュボードでは、単一のエンティティとして表示されますが、NSX上では2つのエンティティとして構成されています。

 

 

ESG NAT設定

 

NAT タブをクリックします 。全てのNATエントリは、外部接続を許可するようになっているか確認してください。ここで、 以前のステップで生成されたフローティング IPも確認する事ができます。

 

 

コンソールを開く

 

インスタンスビューに移動し、web-01(とweb-02とapp-01)のコンソールを開いて接続性をテストしてみましょう。

  1. [プロジェクト]ボタンをクリックします 。
  2. [コンピュート]ボタンをクリックします 。
  3. [インスタンス]をクリックします 。
  4. web-01(web-02とapp-01) のドロップダウンメニューをクリックします。
  5. 開いたメニューで[コンソール]をクリックします 。
  6. [コンソールのみを表示するにはここをクリックします]を右クリックし、[Open link in new tab]を選択します。

注意)DHCPによってweb-networkとapp-networkの3つのインターフェースには様々なIPが割り当てられています。

 

 

コンソールログインとインスタンスの疎通確認

 

コンソールウィンドウ内で、以下の認証情報を使用して、web-01、web-02、app-01 にログインします。

注意)セキュリティポリシーを強くしているため、pingテストの前に以下のiptableコマンドを実行して、pingが通るようにしておきます。

iptables -A INPUT -p icmp --icmp-type echo-request -j ACCEPT
iptables -A OUTPUT -p icmp --icmp-type echo-reply -j ACCEPT

もしくは、以下のコマンドをweb-01,web-02,app-01で実行してもかまいません。

iptables -F
iptables -P INPUT ACCEPT
iptables -P OUTPUT ACCEPT

まず、web-01のIPアドレスを確認してみましょう。10.10.40.3になっているはずです。

ifconfig eth0

web-02インスタンスのIPアドレス(上記の例では10.10.40.4)にpingをしてみましょう。

期待される動作は、マイクロセグメンテーションポリシーを定義していないため、pingがweb-01とweb-02間で疎通できなければいけません。

注意 :もしweb-02のIPアドレスを忘れてしまった場合は、Horizonダッシュボード内のInstancesのリストで確認することができます。

ping -c 3 10.10.40.4

app-01へのpingも確認してみましょう。この通信も可能なはずです。

ping -c 3 10.10.30.3

 

 

コマンドプロンプトの起動

 

Windowsのタスクバーからコマンドプロンプトの新しいウィンドウを 開き ます 。

 

 

フローティングIPへの疎通

 

web-01とweb-02に割り当てられているフローティング IPの両方にpingをしてみましょう。

スクリーンショットのIPの例では、以下のようになっています。

注意 :フローティング IPの値は、ラボ実施環境により異なる可能性があります。Horizonダッシュボードに戻り、コンピュートのインスタンスから確認して下さい。

web-01への疎通を確認します。

ping -c 2 192.168.0.217

web-02への疎通を確認します。

ping -c 2 192.168.0.218

これらの接続テストによって、当初の目的のサンプルトポロジが完成した事になります。今、全てのホスト上でEast-Westを拡張することが可能な分散ルーターを持ち、2つのネットワークおよび3つのインスタンスが存在します。

コンソールウィンドウとコマンドプロンプトウィンドウを 閉じます 。

 

 

環境のクリーンアップ  Step 1

 

環境をクリーンアップするために、まず3つのVMインスタンス(web-01、web-02、app-01)を終了します。

 

 

環境のクリーンアップ  Step 2

 

次にdist-routerから、2つの内部インターフェース(app-network、web-network)を削除します。( ルータータブに移動し、dist-routerリンクをクリック、インターフェイスタブを選択します)

 

 

環境のクリーンアップ  Step 3

 

これで、dist-routerを削除できました。

 

 

環境のクリーンアップ  Step 4

 

そして最後に、app-networkとweb-networkを削除します。

これでこの章は終了です。

 

Conclusion



 

You've finished Module 4

 

Congratulations on completing  Module 4.

If you are looking for additional documentation on VIO, try one of these:

Proceed to any module below which interests you most.

 

 

How to End Lab

 

To end your lab click on the END button.  

 

モジュール 5 - 拡張されたOpenStack機能(60分)

環境セットアップ


このセクションの目的は、モジュールを進めるにあたり、必要なページをブラウザの各タブに開いておくことにあります。


 

Labステータスの確認

 

開始する前に、 デスクトップ壁紙のLab Statusが Readyになるまで待つ必要があります。エラーメッセージが表示された場合は、ラボを終了し、別のものを再デプロイしてください。

 

 

クリーンアップ(必要に応じて)

このモジュールを開始する前に、以前の他のモジュールで削除されているべきものが削除されているか確認して下さい。各モジュールはそれぞれ独立して実施できるように設計されています。つまり、Module2を実施するにあたりModule1が終了している必要がない事を意味します。

 

 

Webブラウザの起動

 

HOLのデスクトップにあるGoogle Chromeのウェブブラウザを起動します。

 

 

vSphere Web Client

 

  1. 新しいタブでブックマークから、vSphere Webクライアントを 開きます。(これは既に開いていれば省略できます。)
  2. [Windows セッション認証を使用してください]のチェックボックスを クリックします。
  3. [ログイン]ボタンをクリックします 。

注意 :はじめてvSphereのWebクライアントにログインする場合は、数分程度時間がかかる場合があります。

 

 

新しいタブ

 

新しい タブを作成します。

 

 

Horizonダッシュボード

 

  1. ブックマークの[VIO Horizon]をクリックして、Horizonダッシュボードのログインポータルを開きます。
  2. ユーザー名: admin
  3. パスワード: VMware1!  (大文字小文字に注意)
  4. [Sign In] ボタンをクリックします。

注意:はじめて Horizon Dashboard にログインする時は、数分時間がかかる場合があります。

注意:このモジュールの「Glance Imageカタログの概要」章の「新しいvSphereテンプレートの作成  Step 1」〜「新しいvSphereテンプレートの作成  Step 4」は待ち時間が長いため、一番始めにこの作業を実施後、次の「CLI Tools: Nova,Neutron,Cinder」の章に進む事をお勧めします。

 

CLI Tools: Nova, Neutron, Cinder


OpenStackのコミュニティは、OpenStack poject clientsと一緒にCLIバイナリセットをバンドルしてくれています。これらのクライアントは、プロジェクトAPIとやりとりするPythonのAPIライブラリです。将来的に個々の個別クライアントはユニバーサルOpenStackクライアントに置き換えられます(実際に、Keystoneのクライアントはユニバーサルクライアントができたため廃止されました)。一方で、クラウド・ユーザーは、既存の個別クライアントをインストールし、操作や設定作業を簡素化するためにそれらを使用することもできます。

このセクションでは、(OpenStackの管理サーバー(OMS)にインストールされている)以下のクライアントを使用します。

GlanceとHeat CLIクライアントもインストールされていますが、それらは使用しません。後でこれら専用の章があります。


 

Nova,NeutronのCLI操作の基本

 

Novaは、OpenStackの内のComputeプロジェクトで、スケーラブルでオンデマンドなコンピューティング リソースへのセルフサービスアクセスを提供します。Novaの追加情報については、このラボ(HOL-SDC-1720)の他のモジュールも参照してください。それでは、OpenStack Management ServerでいくつかのNova CLIを使用し、CLIツールに慣れてみましょう。まず、ControlCenterからPuttyを開きます。

 

 

OpenStack Management Server (OMS)のOpenStack CLIツールの利用

 

OpenStack Management ServerへSSH接続するためにoms.corp.localをダブルクリックします。ユーザーviouser用のSSHキーを使用するアクセスが事前に構成されているので、ログイン情報(viouser / VMware1!)を入力する必要はありません、先に述べたように、すべてのCLIツールとPythonライブラリは、OMSにインストールされています。

 

 

adminユーザーのOpenStack環境変数の読み込み

 

cloudadmin.rcファイルで構成変数を確認するために、コマンドプロンプトから次のコマンドを入力します。

cat cloudadmin.rc 

Adminテナントとして直接コマンドを実行できるように、以下のコマンドでadmin用環境変数をロードします。

. cloudadmin.rc

 

 

実行中のNovaインスタンスの確認

 

コマンドプロンプトから、次のコマンドを入力します。

nova list 

これは、管理者テナントが現在所有しているインスタンスのリストを表示します。スクリーンショットは、あなたのものとは異なる可能性があることに注意してください。

 

 

FlavorsとImagesのリスト表示

 

以下のコマンドを実行して、FlavorとImageのリストを確認してみましょう。

(注意) OMS上でコマンドを実行する必要があります。

nova flavor-list
nova image-list

Flavorsはインスタンスが起動した時のRAM、ディスク、CPUコア数を定義したOpenStackの仮想ハードウェアテンプレートです。OpenStack Imagesは、「仮想マシンテンプレート」と捉えられます。これから、Glanceを使用したイメージ操作で、いくつかの高度な操作も実行してみます。

 

 

ネットワークとセキュリティグループのリスト表示

 

少し話は変わりますが、今度は、Adminテナントで利用可能なネットワークを表示するNeutronのCLIコマンドを使ってみます。このラボのモジュール2で、より多くの、オプションを含むNeutron CLIコマンドの紹介をカバーしています。次のコマンドを入力します。

neutron net-list
neutron security-group-list

注意) test-networkのUUIDは、68b09faf-c633-463c-9efb-41281740781eです。また、複数のデフォルトセキュリティグループが表示されます。OpenStackは、テナントごとに1つのデフォルトのセキュリティグループがあります。次の演習のために、「セキュリティグループ: allow-http、UUID: 3cf01086-b850-4f77-9f55-b0a621d870f5」を利用して下さい。

 

 

複数のNovaインスタンスの起動

 

コマンドプロンプトから次のコマンドを実行し、カタログnginxのImagesを使用して 2インスタンスを同時に起動してみます。ネットワークは、test-networkに接続します。nginxのイメージはPhontonOS 1.0をベースにしており、その上で vmwarecna/nginx Dockerインスタンスが動作しています。両方のインスタンス名は、最初に「test-ngix」の文字列に続き、その後数字で構成されています

nova boot --num-instances 2 --image nginx --flavor m1.small --nic net-id=68b09faf-c633-463c-9efb-41281740781e --security-groups 3cf01086-b850-4f77-9f55-b0a621d870f5 test-nginx

注意) セキュリティグループはallow-httpを選択したいため、UUIDは3cf01086-b850-4f77-9f55-b0a621d870f5を利用しました。環境に応じてUUIDを確認して下さい。

上記コマンドの構文は以下のとおりです。

nova boot --num-instances=NUMBER --image IMAGE --flavor FLAVOR --nic net-id=NET-UUID --security-groups UUID VM-NAME

 

 

 

新しく起動しているインスタンスのリスト

 

nova list コマンドを再度実行する事で、現在のインスタンスの状態を確認できます。このコマンドで、Neutron DHCPから払い出されたIPも確認できます。

nova list

 

 

Horizonを利用した新しいインスタンス起動の確認

 

新しく作成された2つのNovaインスタンスをHorizon Webインターフェースから確認してみます。

  1. adminユーザとしてHorozon Webインターフェイスにログインし、 admin projectを選択していることを確認します。
  2. プロジェクトタブを選択します
  3. コンピュートを選択します
  4. インスタンスを選択します

test-nginx-1とtest-nginx-2の2インスタンスが、IPアドレスが10.10.10.0/24の範囲で割り当てられているのが確認できます。

 

 

Neutronネットワークの作成

 

モジュール2では、詳細にNeutron+ NSXの統合をカバーしていますが、このモジュールでは基本的なNeutron操作を試してみます。OMSのコマンドプロンプトから以下のコマンドを実行し、 test-network-2のNeutronネットワークを作成します。

neutron net-create test-network-2

これで作成されたNeutronネットワークは、NSXの論理スイッチ(VXLAN-backedのポートグループ)にマッピングされます。VXLANオーバーレイを使用する事で、OpenStackのテナントは、物理ネットワークを触る事なくセルフサービスでネットワークのオペレーションができるようになります。(すなわち、VLANの事前作成や設定変更は必要になりません)オーバーレイ方式は、より高いスケーラビリティでプライベートクラウド基盤をより便利に利用できます。

 

 

Neutronサブネットの作成

 

net-createコマンドは、L3ではなくL2 セグメントだけを作成します。テナントはこのNeutronネットワーク上のインスタンスを起動できるようにするために、それに対応するNeutronサブネットを作成する必要があります。デフォルトゲートウェイ192.168.10.254で、192.168.10.0/24のサブネットを作成するには、次のコマンドを実行します。バックエンドの、NSX Edge Service Gateway(ESG)により、DHCPはこのサブネット上でデフォルトで有効にされます。

neutron subnet-create --gateway 192.168.10.254 test-network-2 192.168.10.0/24

 

 

作成したネットワークとサブネットのリスト表示

 

新しく作成されたNeutronの情報を見るために、次のコマンドを入力します。

neutron net-list
neutron subnet-list

これで、このネットワーク上のVMを起動する準備が整いました。これまでであればネットワーク管理者にお願いして作業してもらっていた事を、全てセルフサービスのワークフローで実現できました!

 

 

Cinder CLIを用いた永続的なボリューム作成

 

Cinderは、OpenStackの中で永続的なブロックストレージサービスです。テナントは、永続的なボリュームを作成し、インスタンスにオンデマンドでアタッチできます。まず、シンプルなCinderボリュームとして、 test-volumeという名前の1GBのボリュームを作ってみましょう。このタスクの実行にNovaCLIを使用しますが、バックエンドではCinderにリクエストを送信して実施されます。

重要:ボリュームUUIDは(4130f441-6feb-4a8c-a4ef-10756277a4bb)を使います。

nova volume-create --display_name test-volume 1

 

 

インスタンスへのボリュームアタッチ

 

インスタンスにボリュームをアタッチするには、このコマンドを実行します。

注意: インスタンスとボリュームUUIDは、ラボ環境によって異なってきます。

nova volume-list
nova list
nova volume-attach <nova-instance-UUID> <nova-volume-UUID> auto

1つ目のUUIDは、ターゲットインスタンス。2つ目のUUIDは、Cinderボリュームを識別するものです。auto パラメータですが、NovaがゲストOS内のボリュームに自動でデバイス識別子を割り当てるために使っています。デバイスID の/ dev / sdbは、ゲストOS内で使われるパス名です。

 

 

ボリュームアタッチの確認

 

ボリュームがアタッチされましたので、データをそこに保存するとインスタンスを変更してもデータは残っています。次のコマンドで実行します。

nova volume-list

今、UUID 4130f441-6feb-4a8c-a4ef-10756277a4bbとtest-volumeは、UUIDの6cb8e05a-53f6-45da-9eb3-cdf5fc8139b1でVMインスタンスに接続されていることを示しています。

 

 

ボリュームのクリーンアップ

 

ここで、さきほど作成したオブジェクトを削除します。最初に、環境によって異なるUUIDを使用してインスタンスからボリュームをデタッチします。次に、ボリュームを削除してください。ボリュームが削除されたか、nova volume-listコマンドで確認してください。 (UUIDは、環境によって異なります)

nova volume-detach 6cb8e05a-53f6-45da-9eb3-cdf5fc8139b1 4130f441-6feb-4a8c-a4ef-10756277a4bb
nova volume-delete 4130f441-6feb-4a8c-a4ef-10756277a4bb
nova volume-list

 

 

Novaインスタンスのクリーンアップ

 

test-nginx-1とtest-nginx-2のNovaインスタンスを削除するために、それらのUUIDを調べます。nova listコマンドで、2つのインスタンスが削除された事を確認して下さい。 (UUIDは、環境によって異なります)

nova list
nova delete <test-nginx-1 UUID> <test-nginx-2 UUID>

 

 

Neutronネットワークのクリーンアップ

 

Neutron test-network-2を 削除するために 、UUIDを調べます。それがわかれば、ネットワークの削除とそれに関連したサブネットの削除を1つのステップで実行できます。 (UUIDは、環境によって異なります)

neutron net-list
neutron net-delete <test-network-2 UUID>
neutron subnet-list

これで、モジュール5のこの章は完了です。

 

Glance Imageカタログの概要


OpenStackクラウド環境において、イメージがないのは、物理サーバにOSがインストールされていない状態と同じで、何もできません。迅速なプロビジョニングをサポートするために、仮想マシンが事前に構築されたオペレーティングシステムイメージからインスタンス化されている必要があります。(vSphereの管理者向けには、クローン元のVMテンプレートを準備しているイメージといえばわかりやすいかもしれません)OpenStackでは 、Glaceと呼ばれるイメージサービスを提供しています。これによってOpenStackのイメージを管理しています。このラボでは、GUIとCLIを用いて管理を行っていきます。


 

OpenStack - vSphere integration

 

VIOは、(図に示されている)指定のvSphereデータストアにアップロードしたイメージを取り込みます。OpenStackは、多くのイメージ形式をサポートしていますが、ここでは簡単に速く実施できる方法で進めていきます。

 

 

既存のイメージ流用

VIOには、Ubuntu 14.04をベースとしたイメージがバンドルされています、これは軽量なLinuxディストリビューションで、基礎を学ぶのに最適です。VIOのインストール時にGlace用データストアが選択され、最初のイメージはそこに置かれています。今後Glaceでアップロードされたイメージも同じ場所に保存されます。

既存のイメージに関する情報を取得するには、2つの一般的な方法があります。

 

 

HorizonでのImageカタログの確認

 

パブリックなイメージは、すべてのプロジェクト(テナント)からアクセス可能で、一般的にOpenStackの管理者によって提供されています。事前にバンドルされたイメージが公開されていると、Horizonから プロジェクト > コンピュート > イメージ を表示する事で確認できます。このラボを可能な限り小さくしたいために バンドルされたubuntu-14.04-amd64の Image は削除されており、 Photon OSをベースに、wordpressとnginxが動く2つのイメージだけが表示されます。

 

 

Glance CLIでのImageカタログの確認

 

OpenStackの管理サーバー(OMS)プロンプトから次のglace コマンドを実行します。

glance image-list

CLIでの操作を習得すると、OpenStack APIを使って何か作業をする時に役立ちますし、スクリプト化する事で作業の自動化も実現できます。

 

 

Image変換と作成

 

なぜ変換するか?

事前に作成されたOpenStackの多くのイメージがありますが、それらはQCOW2イメージ形式で存在します。これは、そのままESXiで利用できるイメージではないため、変換が必要になります。qemu-img コマンドを用いるとQCOW2イメージをVMDK形式に変換することができます。(実行しなくてかまいません)

qemu-img convert -p -O vmdk -f qcow2 trusty-server-cloudimg-amd64-disk1.img ubuntu.vmdk

そして、それをGlanceリポジトリにアップロードしたり、VIOではイメージ作成するとき自動的にそれを処理してくれたりします。インスタンスの動作はまったく同じですが、最も実績があり信頼性の高いvSphere上で実行させる事ができる事は大きなメリットになります。(もちろんHA、vMotion、DRSなどの機能も利用できます)

 

 

vSphereへImageファイルのインポート

 

VIO 1.0では、vSphereで正常に起動することができるGlaceイメージを作成するために、全ての必須メタデータと互換性のあるメタデータをイメージに組み込んでおく必要があります。これを保証するための最も安全な方法は、vSphereのデータストアに変換されたVMDKをアップロードし、それをリファレンス用仮想マシンとして、OVA形式に変換するやりかたです。(スクリーンショットを参照)

ただ、上記のやり方は大変面倒なので、glance-import ユーティリティコマンドをVIOでは準備しています。(VIOコントローラノードで使用可能) これを利用すれば、vSphereにインポートしたりOVAにエクスポートする作業を個別に行う必要はありません。 (注意:このラボはインターネットに接続していないため実行できません)

glance-import cirros-0.3.4 qcow2 http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-disk.img

あなたがイメージの作成プロセスをより細かく制御したい場合は、次のコマンドglanceimage-create を使用することができます。

glance image-create --name cirros-0.3.4 --container-format bare --property vmware_disktype="sparse" --property vmware_adaptertype="ide" --disk-format vmdk --is-public True --location http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-disk.img

OVAイメージをインポートするのはさらに簡単です。

glance image-create --name ubuntu --disk-format vmdk --container-format ova --file ubuntu.ova --progress

 

 

新しいvSphereテンプレートの作成  Step 1

 

既存のvSphereテンプレートは、VIOバージョン2.5以降にインポートすることができます。手順を簡素化し、このラボでのリソース使用量を最小限にするために、既存のnginxのGlanceイメージからテンプレートを作成してみます。vSphere Web Clientに移動して下さい。

  1. 仮想マシンおよびテンプレート > vcsa-01a.corp.local > RegionA01 > OpenStack > Images > RegionA01-ISCSI01-COMP01 > nginx
  2. [nginx-1G]を右クリック
  3. [テンプレートにクローン作成]を選択

 

 

新しいvSphereテンプレートの作成  Step 2

 

  1. 新しいテンプレート名は、Ubuntuにしてください。(実際はPhoton OSですが、今後のラボ操作のためにubuntuイメージだと思って下さい)
  2. テンプレートの場所としてOpenStackを選択。
  3. [次へ]をクリックします。

 

 

新しいvSphereテンプレートの作成  Step 3

 

  1. 計算リソースとしてRegionA01-MGMT01> ESX-05a.corp.localを選択してください
  2. [次へ] をクリックします。

 

 

新しいvSphereテンプレートの作成  Step 4

 

  1. データストアとしてRegionA01-ISCSI01-MGMT01を選択してください
  2. [ 次へ ]をクリックし、[終了]をクリックします。

 

 

vSphereテンプレートをGlanceイメージとしてインポート

 

注:VMのクローン作成プロセスはしばらく時間がかかります。以下のコマンドを実行する前にクローンが完了していることを確認してください。

それでは、次のコマンドでVIOにこの新しいUbuntuのテンプレートをインポートしてみましょう。

glance image-create --name ubuntu-14.04-amd64 --disk-format vmdk --container-format bare --location "vi://vcsa-01a.corp.local/RegionA01/vm/OpenStack/ubuntu"

正しいテンプレートのURLを見つけることは、おそらくここで最も難しい部分ですが、vi://ロケータ形式がovftoolでも使われているのと同じような事です。vSphereでは、Glanceデータストアにテンプレートをコピーしません、正しいテンプレートの場所へのリンクを保持し、新しいインスタンスを作成するには、この情報を使用します。

 

 

新しいGlanceイメージの確認

 

それでは、新しいGlanceイメージが実際に使用可能であることを確認してみましょう

glance image-list

 

 

新しいGlanceイメージの詳細

 

glance image-listで得られたubuntu-14.04-amd64のGlanceイメージのUUIDを使用し、次のコマンドで、その正確な格納場所を確認することができます。

glance --os-image-api-version 2 image-show 1c65578c-2fd6-46d2-8701-43b4cf9c62ae

このGlanceイメージは、単にテンプレートへのリンク情報で、Glanceデータストアに実際のデータはないことに注意してください。

 

 

新しいイメージを用いたテストインスタンスの作成

 

新しいVMインスタンスを作成するには、正しいtest-networkを識別する必要があります。例えば以下のコマンドでallow-pingセキュリティグループのUUIDを調べます。

neutron net-list
nova secgroup-list

ここで、ubuntuという名前の 新しいUbuntu-14.04-amd64のインスタンスを作成してみます。

nova boot --image ubuntu-14.04-amd64 --flavor m1.small --nic net-id=68b09faf-c633-463c-9efb-41281740781e --security-groups 2eaecb8f-d81f-4d9b-b860-0ff0c352fbe6 ubuntu

 

 

インスタンス作成の確認

 

正しくインスタンスが起動しているか確認するため、nova listコマンドを実行します。もしエラーステータスメッセージが表示されても無視してください。ラボにリソースの制約があり、新しいインスタンスの作成すると、たまにComputerリソースを使い果たす事があります。

nova list

 

 

サマリー: vSphereはどのような動作をしたのか?

vSphereは、単純にVMを作成し電源をいれただけです。このステップは次の通りです。

  1. VMDKは 、ESXiクラスタのデータストアに Glace データストア からコピーされます。ESXiデータストアでのディスクサイズは仮想ディスクのサイズと同じになります。
  2. VMDKは、ローカルデータストアにキャッシュされます。このイメージから起動された将来のインスタンスは、リンククローンを使用します、したがって、ほぼ瞬時にプロビジョニングが完了します。
  3. 「Shadow VM」は、キャッシュされたイメージごとに作成されます。これらは、vCenterから管理されている仮想マシンとして見えてきます。また名前はmeta-<UUID>に似た命名規則になっています。
  4. 新しいインスタンスはmeta-<UUID>をレプリカディスクとして持つ、リンククローンとして作成されます。
  5. 新しいVMがパワーオンされます。

 

 

VIOでvSphereリソースプールを利用する

 

VIO 2.5の新機能:あなたはOpenStackのテナント(例えばadmin )の名前で新しいリソースプールを作成すると、そのテナントによって作成されたすべてのNovaのインスタンスは、そのリソースプールに移動します。これは、VIO 2.5の非常に便利な機能です!

これで高度な概要のセクションを完了します。

 

APIの利用: Heatテンプレート、コンテナ展開



 

Heatテンプレートの構造

 

Heatテンプレートは 、人間が読み書き可能なテキストファイルとしてクラウドアプリケーションのインフラストラクチャを記述するためにYAMLを 使用し 、バージョン管理システムで管理したり、差分を取ったりできます。インフラインフラストラクチャのリソースとは、サーバー・フローティング IP・ボリューム・セキュリティグループ・ユーザーなどです。これらの全てがHeatオーケストレーションテンプレート(HOT)に保存されます YAML以外のフォーマット(JSONなど)も存在します。

Heatは 、Amazonの AWS CloudFormations フォーマット と互換性があります 。トポロジーおよびオーケストレーションの仕様(TOSCA)は現在策定中です。現在はHOTへの変換のために以下を利用できます。 https://github.com/stackforge/heat-translator

また、Heatは 、Ceilometerと統合してAutoscalingサービスも提供します。そのため、テンプレートにScaling Groupをリソースとして含める事ができます。

テンプレートには、リソース間の関係を指定することができます 。(例えば、このボリュームは、このサーバーに接続されているなど)Heatは、正しい順序で起動し、アプリケーションをきちんと起動させるように、OpenStack APIを叩きます。

Heatは 、アプリケーションのライフサイクル全体を管理 します。もしインフラストラクチャを変更する必要がある場合は、単純にテンプレートを変更し、既存のスタックを更新します。

Heatは主にインフラストラクチャを管理しますが、テンプレートは、 Puppet、Chef、Ansibleのような ソフトウェア構成管理ツールとうまく統合して使えます 。

以下でHello World Exampleを見ることができます。

https://github.com/openstack/heat-templates/blob/master/hot/hello_world.yaml

 

 

サンプルHeatテンプレート

 

Windowsエクスプローラを開き Desktop > HOL-1720に移動します。photon-sample.yamlという名前のファイルを右クリックし、 [Edit with Notepad++]を選択します 。

 

 

サンプルHeatテンプレート(続き)

 

まず、テンプレートの構造を見てみて下さい。この典型的なHeatオーケストレーションテンプレートは、外部ネットワーク(デフォルトで有効になってソースNAT)に接続されたルーターと(nginxのWebサーバーを実行しているPhotonOSイメージを使用してみてください)、単一層アプリケーションを構築します。

 

 

HorizonからHOTを確認

 

重要:先に進む前に、以前のラボで利用したschedulingやspawing状態のインスタンスが存在すれば終了しておいて下さい。この操作は、プロジェクト > コンピュート > インスタンス から行うことができます。

Horizon ダッシュボードにadmin権限でログインし、

  1. [プロジェクト]に移動します
  2. [オーケストレーション]を選択します
  3. [スタック]を選択
  4. [スタックの起動]をクリックします。
  5. Template Sourceとして[ファイル]を選択します。
  6. ファイルDesktop > HOL-1720に移動し、photon-sample.yamlを選択します。
  7. [次へ]をクリックします。

 

 

Stackの起動

 

  1. スタック名には、test-stackを入力します。
  2. [失敗時のロールバック]をクリックします。
  3. adminユーザのパスワード VMware1!を入力してください。
  4. Flavorsはm1.smallであることを確認します(そうしないとスタックの展開が失敗します)
  5. [起動]をクリックしてください。

ext-netのUUIDは、事前に作成した外部ネットワークのUUIDが入っていますが、正しいか確認してみてください。Dockerイメージのvmwarecna / nginxを持つ、コンテナホストnginxは、既にダウンロードされ動作しているため、Local Docker レジストリやインターネットにアクセスできる必要はありません。

 

 

Stack作成の確認

 

スタックが正常に起動され、コンポーネントが正常に作成されたことを確認します。

*注意)LABリソースの関係で、スタックの作成に失敗する場合がありますが、この後はスタックを確認し削除する作業だけのため、ここからは読み進めてください。

  1. プロジェクト > オーケストレーション > スタックに移動します
  2. 起動したスタックのテータスが[作成完了]になっていることを確認します。

また、[プロジェクト] > [ネットワーク] > [ネットワークトポロジー]に移動して、単一のアプリケーションが作成されているかどうか確認できます。

 

 

Stack詳細: トポロジー

 

test-stackをクリックし、[トポロジー]タブを選択すると、Heatテンプレートphoton-template.yamlによって作成されたすべてのリソーストポロジーを表示できます。

 

 

Stack詳細: リソース

 

[情報源]タブをクリックすると、デプロイされたリソースが表形式で表示されます。

 

 

Stack動作の流れ

 

[イベント]タブを選択して、Heatのテンプレートで実行されるアクションのシーケンスを表示することができます。一般的に、Heatのテンプレートを使用すると、個々のAPIと相互作用することによって、アプリケーションを構築する場合に使用する手動のワークフローと同様のシーケンスで処理します。

 

 

Heat CLI

 

OpenStackのHeatプロジェクトでは、PythonベースのHeatCLIを提供しています。あなたのOpenStackの管理サーバー(OMS)Puttyセッションに戻って下さい。(または再度ログインしてください) まず、python-heatclient packagesをインストール(ローカルOMSのリポジトリを使用して)し、test-stackを使って以下のコマンドで状態を確認します。

sudo apt-get install python-heatclient
. cloudadmin.rc 
heat stack-list 

 

 

Heat Stackのクリーンアップ

 

test-stackを削除するには

  1. プロジェクト > オーケストレーション > スタックに移動します
  2. デプロイしたtest-stackのポップアップメニューから[ スタックの削除 ] を選択します。

これで、Heat Automationのセクションは終わりです。

 

Conclusion



 

You've finished Module 5

 

Congratulations on completing  Module 5.

If you are looking for additional documentation on VIO, try one of these:

Proceed to any module below which interests you most.

 

 

How to End Lab

 

To end your lab click on the END button.  

 

モジュール 6 - OpenStack運用に重要なVMware vRealizeソリューション(30分)

OpenStack運用、Log Insight・vRealize Operationsの概要


このセクションの目的は、VIOで利用可能なトラブルシューティングおよび運用管理ツールの概要を提供することにあります。OpenStack内には多くのコンポーネントがあり、それらを管理し、迅速にトラブルを診断し問題を解決するための運用ツールが求められます。これから、Log Insight、vRealize Operations、およびVIOのvCenterプラグイン機能を説明していきます。


 

OpenStackの運用

本質的にOpenStackは、さまざまなオープンソースプロジェクトからなり、コンピューティング、ストレージ、ネットワークをデプロイするための共通のプラットフォームを提供します。プラットフォームの分散性のために、複雑で不安定な面も存在します。OpenStackのコミュニティは以下のガイドを公開しています:

http://docs.openstack.org/openstack-ops/content/

これは、OpenStackの環境をサポートする運用面について語っています。ドキュメントでは、「チェックすべき箇所、どのようにそれをチェックするか、ログを検索する場所など」が書かれています。しかし、運用面に関するツールなどの紹介はほとんどありません。インフラストラクチャの健全性マネジメントやログ監視ツールなどは必要になってこないでしょうか?このセクションでは、vRealizeLog InsightとvRealizeのOperations Managerのメリットについて説明し、なぜこれらのツールは、OpenStackのような大規模で複雑な環境を簡素化し、管理するのに役立つか紹介します。

 

 

vRealize Log Insight for OpenStack

 

vRealize Log Insightは、物理環境、仮想環境、クラウド環境全体で高いパフォーマンスで検索することに重点を置いている、リアルタイムのログ管理プラットフォームです。Log Insightのインターフェースは非常に直感的であり、VMwareのソリューションとの統合は非常に簡単で、ログを収集することができます。

OpenStackに関連しては、専用のLog Insight OpenStack管理パック(様々なソリューションのため30個以上の管理パックを用意しています)を無料でダウンロードすることができます。この統合された管理パックは、事前に作成したダッシュボード画面にOpenStackに関連する情報を表示してくれます。追加で、カスタムダッシュボードを作成することもできます。

OpenStackのログは膨大です。各サービスが大量のログを出力し、異なるサービス間ですべての情報を関連付けることは、集中ログ管理ツールがないと大変です。OpenStackの環境を管理する場合、ログ管理メカニズムを持つことは必須です。

追加の管理パックで、オペレータがvSphereおよびNSX環境に関連する情報を表示することもできます。これらのソリューションも同様に、事前に作成した専用のダッシュボードが用意されています。Out of the boxで、Log Insightはすぐにログを収集しはじめる事ができます。

 

 

vRealize Operations Manager for OpenStack

 

Log Insightのログと同様に、vRealize Operations ManagerはOpenStackの環境を管理する上で重要な役割を果たしています。OpenStackの管理の一つにクラウドインフラストラクチャの健全性管理があります。メモリ不足が近くないですか?CPUは?ストレージは?ネットワーク/ストレージのIOは問題を持っていませんか?どのように5万VMの管理をしましょうか。管理しているOpenStackインフラで、オーバーコミットしてパフォーマンスが低下している部分はないですか?いつもと違うリソースの消費をしていませんか?サービスは稼働していますか?管理する観点は多数あり、膨大な情報を収集してそれを解析して、状態を把握する必要があります。しかもリアルタイムの情報が必要になります。誰も、50,000 CPU、メモリ、ストレージ、ネットワークのメトリックを収集して自分で解析したくありません。また、そのような事は不可能です。 vRealize Operations Managerは、すべてのデータを収集し、健全性スコアを計算し、問題があれば理由と対応策を提示する事で、これらを単純化します。

vRealize OperationsのためのOpenStack管理パックは、OpenStackのインフラストラクチャ内で実行されているサービスの状態を表示すダッシュボードを提供しています。Keystoneサービスやnova-computeサービスなどの状態がすぐに確認できます。

OpenStackのデプロイを支えるネットワークインフラストラクチャを監視できるように、vRealize Operationsは、NSX管理パックも持っています。

vRealize Operations Managerを利用すれば、属人性を排除し、誰が管理しても同じ品質に保てます。Log InsightとvRealize Operationsは、OpenStackクラウド基盤を健全に運用する大変大きな助けとなります。

 

Log Insight とvRealize Operationsを用いたトラブルシューティング


vRealize Operationsは、物理および仮想インフラストラクチャ全体のパフォーマンス管理と可視化を実現し、IT運用を自動化することを可能にするプラットフォームです。vRealize Operationsの周りに大きなエコシステムがあり、VIOに関連してくるものが、OpenStack管理パックとNSX-vSphere管理パックです。これから、これら2つの管理パックが提供する機能の概要を紹介します。


 

事前準備  管理タスク

 

始める前に、このトラブルシューティングのセクションのためのシナリオを開始してみましょう。

  1. Windowsのアイコンをクリックしてください
  2. Puttyをクリックします。

 

 

OpenStack Managementサーバーへのログイン(oms.corp.local)

 

  1. oms.corp.local を選択
  2. [Load]をクリックします

 

 

viouserでログインしsshコマンドを実行

 

  1. 自動的にviouserとしてログインされます。注:何らかの理由で、これは自動的には行われていない場合、viouserユーザーのパスワードはVMware1!です
  2. 次のsshコマンドを実行します。
ssh loadbalancer01 'sudo service nova-compute stop > /dev/null'

コマンドプロンプトには、何も出力メッセージがあってはなりません。

Puttyウィンドウを終了して、次へ進みます。

 

 

vRealize Operations と Log Insight の概要

 

(まだ開いていない場合は、)ブラウザを起動するためにGoogle Chromeをクリックします。

  1. ツールバーの[vRealize Operations]をクリックします

 

 

vRealize Operations へログイン

 

フィールドは自動的に入力されます。[ログイン] をクリックします。

user:  admin

password:  VMware1!

 

 

ダッシュボードリストに移動

 

  1. デフォルト画面ではない場合は、ホームボタンをクリックします。

 

 

その他のダッシュボード

 

  1. OpenStack Contordoller Dashboardが見えていない場合は、「ダッシュボードリスト」をクリックします。
  2. OpenStackを選択します。
  3. OpenStack コントローラを選択します。

 

 

OpenStack Controllers ダッシュボード

 

OpenStackのコントローラダッシュボードを見てみると、監視されているさまざまなサービスが表示されます。

  1. OpenStackのCompute サービスの アイコンをクリックします。
  2. 現在の環境で実行されているコンピューティングサービスが下に表示されるはずです。 アラートはダウンしているサービス数に応じて重要度が変わります。例えば、nova-apiでサービスのいずれかがダウンした場合、それはImmediate Severityレベルで警告します。すべてのサービスが停止している場合は、Criticalアラートとして通知されます。

 

 

OpenStack 管理系サービスの健全性

 

  1. OpenStack 管理サービスアイコンをクリックします。コントローラサービストポロジが、右側に表示され、サービスのメトリックは下に表示されます。サービストポロジは、サービスがどのように実行されているか、どこで動いているか可視化するために極めて有用です。コントローラ上で実行されている他のサービスも見ることができます。
  2. より細い情報を得るためにズームイン機能があります。
  3. コントローラサービスメトリックでは、現在実行されているすべてのサービスの状態を表示しています。

 

 

VIOログインとVMの起動

 

新しいタブまたはブラウザのウィンドウを開きます。

  1. VIOのブックマークをクリックします。
  2. ログインフィールドは自動的に入力されます。
  3. 4. [Sign In] をクリックします。

ユーザー名: admin

パスワード: VMware1!

 

 

VMの起動

 

  1. [コンピュート]をクリックします。
  2. [イメージ]をクリックします。
  3. nginxの[インスタンスの起動]をクリックします。

 

 

VMの起動

 

  1. インスタンス名に「HOLVM」を入力します。
  2. [ネットワーク]タブをクリックします。

 

 

ネットワーク選択と起動

 

  1. test-networkの横のプラス記号をクリックします。これを行うと、test-networkは、割り当てられたNIC1で選択したネットワークの下に表示されます。
  2. [起動]をクリックします。

 

 

正しく動作しているか確認

 

VMを起動すると、VMを展開する途中で、次のエラーが表示されます、「No valid host found」

これは、何を意味するのでしょうか?それは色んなケースがあるかもしれませんが、メッセージから、novaスケジューラが任意のホスト上でVM動作させる事ができなかったと考えるのが妥当です。リソースが不足していないですか?十分なRAMがありますか?十分なCPUはありますか?ホストは稼働していますか?この例のように、OpenStackによって生成されたエラーは時々曖昧です。

トラブルシューティングを開始してみましょう。異なるオペレータがいれば、トラブルシューティングするためのアプローチも異なるでしょう。ある人は、止まってしまった原因を追跡できるかどうかを確認するためにUUIDを検索するような「ログの追跡」アプローチを取ります。またある人は、まずインフラを疑い、何かがダウンしていないか確認し、全環境を調査するかもしれません。

まず最初にすべきことは、明らかな問題があるかどうかを確認するためにインスタンス名「HOLVM」をクリックしてください。

 

 

インスタンスのステータス確認

 

  1. HOLVMリンクをクリックして、ステータスとエラーメッセージについて詳細を確認してください。

 

 

インスタンス概要

 

インスタンスの概要では、インスタンスの状態について詳細がみられます。「No valid host was found」というようなエラーメッセージだけでは非常にわかりにくいことがわかります。基本的に、OpenStackはエラーの理由を提供していません。おそらく、OpenStackの中で利用可能なハイパーバイザがないのではないでしょうか。それでは、実際に素早く確認してみましょう。

 

 

Hypervisorダッシュボード

 

nova-computeが何を報告をしているのかをみるために、また、インスタンスを起動するのに十分なリソースがあるかどうかを確認するためハイパーバイザーをチェックします。

  1. [管理]タブをクリックしてください
  2. [ハイパーバイザー]をクリックします。

ここを見てみても問題はありませんでした。ここが健全であればストレージが怪しいでしょうか? 今度は、ログをチェックしていきましょう。

 

 

Log Insightにアクセス

 

  1. 新しいタブやウィンドウを開き、Log Insightのアイコンをクリックしてください
  2. フィールドは自動的に入力されるで [ログイン] をクリックします。

Username: admin

Password: VMware1!

 

 

Log Insight OpenStack ダッシュボード

 

Log Insightにログインし、まずOpenStack Overview ダッシュボードを見てみましょう。OpenStack Overviewダッシュボードは、ダウンロードして自由に利用可能なコンテンツパックの一部です。コンテンツパックは、あらかじめ作成されたダッシュボードのパックで、OpenStackサービスを可視化します。

  1. OpenStackダッシュボードが表示されない場合は、スクリーンショット上の1をクリックするとドロップダウンメニューが現れますので、OpenStackを選択して下さい。そして、Overviewをクリックします。
  2. ダッシュボードが開かれると、デフォルトOpenStackのダッシュボードが表示されます。インスタンスの起動問題に関して、novaサービスに関する警告は気になるので、nova service列のWarningバブルマークをクリックします。
  3. 何も表示されない場合は、デフォルトの設定では、直近5分のログを示している事による可能性があります。すでに5分経過している場合、スクリーンショットの3のドロップダウンから、直近1時間を表示するようにして更新する必要があります。

 

 

インタラクティブ分析

 

  1. nova列のwarningバブルマークを左クリックするとメニューがポップアップしてきます。インタラクティブ分析をクリックします。

 

 

インタラクティブ分析の結果

 

インタラクティブ分析インタフェースを使用すると、ログデータの詳細分析を実施し、複数のログを跨いでイベントを相互に関連付けることができます。

1.必要に応じて、Custom Time Rangeドロップダウンから「直近1時間のデータ」などを選択して、ログを表示してみます。

インタラクティブ分析パネルに入ると、ログデータそのものが表示されます。ここで、ログの末尾が「Setting instance to Error state 」 を参照する必要があります。

次に、エラーがあるのはわかったけれど、それをどのように問題を解決していくか考えましょう。ではここから、インスタンスのUUIDを追跡してみましょう。

 

 

インスタンスUUIDの追跡  Step 1

 

根本的な原因を見つけることができるかどうかを確認するために、異なるサービス間でのインスタンスのUUIDを追ってみましょう。

  1. 現在のフィルターを削除するために、「text」、「openstack_component」、「openstack_severity」の横のXをクリックします。

 

 

インスタンスUUIDの追跡  Step 2

 

同じようなログを調査するために、ERROR状態で、"instance"という単語が続くログを調査してみましょう。

  1. スクリーンショットのように、UUIDの部分を選択します。そうすると"「<uuid>」を含む"のポップアップウィンドウが表示されるので、それをクリックします。

 

 

Warningログのみの表示

 

必要に応じて、Warning Eventの円をクリックすることで、NovaのログでWarningのみを表示させる事ができます。これで、Worningのみを表示します。

 

 

インスタンスUUIDの追跡  Step 3

 

これで、ログイベントの新しいページが表示されます。リストされたすべてのイベントをスクロールすることができますが、おそらくこれだけでは、問題が何であるかについての完全にはわからないでしょう。表示されるログメッセージを見てみましょう。

別のログメッセージに目を通してみると、何かみてみるべきものに気づくかもしれません。req-IDが失敗している部分を追跡してみましょう。手順は次のとおりです。

  1. 再びログをスクロールして、"Setting instance to Error state"というエラーを見つけます。

 

 

インスタンスエラーが見つけられない場合

 

”Setting instance to ERROR state"のログエントリが見つけられない場合、検索機能を使用してエントリを検索することもできます。

1.検索窓で「error state」を入力してEnterキーを押します。これで、インスタンスのエラーを表示できます。

 

 

リクエストIDの追跡  Step 1

 

  1. nova.scheduler.utils の文字列に続く、req-XXXXXXXX-XXXX-XXXX-XXXX-XXXXXXXXXXXX を検索します。req-XXXX…の文字列をドラッグして選択します。
  2. ポップアップが表示され、 "「req....」を含む"を選択します。

 

 

 

検索窓の、error stateを削除し、textに<uudi>が含まれる条件も削除し、req-id…のみ検索してみます。

  1. 「error state」を検索窓のテキストから消去します。
  2. "text contains"セクションの中の<uuid文字列>のXをクリックして、req-xxx fieldだけが表示されている状態にします。
  3. 全てのOpenStackコンポーネント、全ての重要度のエラーを確認したいため、現在のフィルターの中で、「openstack_component」、「openstack_severity」の横のXをクリックし削除します。

 

 

リクエストID結果の表示

 

リクエストIDは、各API要求のために作成された識別子です。その値は、問題を追跡し、トラブルシューティングするために使用することができます。request IDによってフィルタリングするので、request IDのStatusを確認できます。起こったさまざまなイベントをスクロールしてみます。何か貴重な情報を持っているように思えるイベントがみえてきます。

Filter ComputeFilter returned 0 hosts

これは、計算ノード上にVMのを配置するために要求を処理する責任があるnova-schedulerが、任意の利用可能な計算リソースを見つけることができなかったことを意味します。ここからの自然な次のステップは、スケジューラが"0 hosts"エラーを出した理由を把握することです。

これは奇妙です。最後にチェックした時間は、すべてのインフラが利用可能であり、適切なリソース持っていたでしょうか?すぐに環境のインフラビューを見てみましょう。ちょうど良いことに、私たちはvRealize Operationsを持っています。

 

 

vRealize Operations Part 2

 

Log Insightから、トラブルシューティングおよびコンピューティング・インフラに問題がある可能性があると判断することができました。nova-schedulerは、Computerフィルターででエラーになっていました。OpenStackのComputerインフラストラクチャを見てみましょう。

1.もしvRealize Operationsの画面を閉じている場合は、ツールバーの[vRealize Operations]をクリックしてください。ログインフィールドは自動的に入力されます。

3. [ログイン] をクリックします。

user:   admin

password: VMware1!

 

 

OpenStackコンピュート インフラストラクチャ

 

  1. [ダッシュボードリスト]をクリックします。
  2. [OpenStack]をクリックします。
  3. [OpenStack コンピューティングインフラストラクチャ]をクリックします。

 

 

OpenStack Compute Infrastructure ダッシュボード

 

  1. OpenStack Computer インフラストラクチャアイコンをクリックしてください

すべてが緑のようです。それは、計算リソースが豊富にあり、インフラストラクチャとの問題を持っていない事がわかります。ネットワーク/ストレージI/Oは問題ないように見えます。何か他の観点で見てみる必要がありそうです。もしかしてサービスでしょうか?

 

 

OpenStack Controller ダッシュボード

 

OpenStackコントローラの管理サービスをチェックしてみましょう。

  1. ダッシュボードリストをクリックします。
  2. OpenStackをクリックします
  3. OpenStack コントローラをクリックします。

 

 

OpenStackコントローラ

 

赤く表示されています。これは良くないです。赤いバッジをクリックしてみましょう。

  1. OpenStack Compute サービスの下の赤いバッジをクリックします。
  2. Compute Servicesに関する詳細が表示されます。まず、[ すべてのnova-computeサービスが使用できません]のリンクをクリックしてみます。

注:時間により、アイコンが緑色の場合があります。その場合でも、ページの右下にアラートが表示されているはずです。

 

 

nova-computeサービスの推奨

 

推奨事項は、「ダウンしている計算サービスをすべて再起動します。」であることがわかります。

これは、nova-coputeがクラッシュしたように見えます、それでは再びそれを起動してみましょう。これで原因がわかりました。

 

 

アラートの表示

 

nova-computeサービスを再起動する前に、さきほどの手順と異なるアラートの確認方法を確認しておきましょう。

  1. Alertsボタンをクリックします。
  2. 有効なフィルタ条件があれば、×を押し、全てのフィルタを削除します。

 

 

アラート ダッシュボード

 

  1. デフォルトでは最近発生した順にソートされていますが、もしそうでない場合は、「発生日時」列をクリックしソートして下さい。
  2. すると、nova computeサービスが利用できないことを示す、いくつかの警告に気付くと思います。

アラートのリンクをクリックすると、先ほどのステップでみた再起動を推奨する画面を開くことができます。

 

 

OpensStack テナント

 

OpenStack テナントダッシュボードでエラーを表示する別の方法は、

  1. ダッシュボードリストをクリックします。
  2. OpenStackをクリックします
  3. OpenStack テナントをクリックします。

 

 

テナントの問題

 

テナントアラートが生成されていることがわかります。このダッシュボードは、OpenStackの使用中にユーザが遭遇した問題を追跡するために使用することができます。

それでは、restart-nova computeをしてみましょう。

 

 

nova-computeの再起動

 

vRealize Operationsウィンドウを最小化します。

  1. 左下のWindowsアイコンをクリックしてください
  2. Puttyをクリックします

 

 

nova-computesサービスの再起動

 

  1. [oms.corp.local]上でクリック
  2. [Open] をクリックします。

 

 

nova-computeサービスの再起動

 

1.  viouserとしてログインします。

login: viouser  password: VMware1!

2.次のように入力します

 ssh loadbalancer01 'sudo service nova-compute restart'

3.  stop: Unkown isntace: が表示されます。これは、そのサービスが実行されていなかったことを表し、サービスは再起動されます。

 

 

概要

これまで問題が発生すると、個人の経験値によって解決にあたっていなかったでしょうか?複数のログからシステムの連携を想像しながら、おかしな部分がないか追っていく作業に時間を費やしていなかったでしょうか? しかしこの演習を通じて、問題を迅速に解決していくトラブルシューティングプロセスについての一例を経験して頂きました。ツールを利用したこのようなフレームワークを数個準備して運用する事で、属人化を無くし高度化された運用が可能になります。

 

Conclusion



 

You've finished Module 6

 

Congratulations on completing  Module 6.

If you are looking for additional documentation on VIO, try one of these:

Proceed to any module below which interests you most.

 

 

How to End Lab

 

To end your lab click on the END button.  

 

Conclusion

Thank you for participating in the VMware Hands-on Labs. Be sure to visit http://hol.vmware.com/ to continue your lab experience online.

Lab SKU: HOL-1720-SDC-1-JA

Version: 20161106-053726