VM26*

VCIX取得を目指して勉強中

"OVFパッケージは無効な証明書で署名されています"と表示されてData Protectionが展開できない件

Data Protectionを展開しようとしたら証明書のエラーがでて展開できませんでした。
 
エラー内容としては記事タイトルにもある通り、"OVFパッケージは無効な証明書で署名されています"です。
 

 
上記エラーがでると「次へ」を押しても先に進めなくなります。
 
証明書をダウンロードして中身をざっと確認してみると、今年の9月8日に有効期限が切れているようです。
 

 
そして今更ですが、発行先がEMCなんですね。ちなみにReplicationだとVMwareでした。
 
↓Replicationのときの証明書のところ

 
どうしたものかなと考えた結果、展開して問題のファイルを引っこ抜けばいいのでは?という考えにたどりつきました。
 
(それまでの間に6.1.5、6.1.4、6.0.1とバージョンを変えてみたり、証明書の置き換え方法を探したりと迷走)
 
いろいろ上記に解決策を回答してくださってますが、そのうちVMwareさんが解決してくれるはず、と一番解決が早そうな証明書関連のファイルmfやcertの削除をして実行というのをやってみたのですが、だめでした。
 

 
なので無精せずにovftoolをMyVMwareからインストールして、ovaファイルを再作成することにしました。
 
ovftoolはショートカットとかで起動するタイプでなくコマンド群です。環境変数の登録が面倒なため、以下に絶対パスで記載しています。
 
コマンド:
ovftoolのインストール先>ovftool --acceptAllEulas ダウンロードしてきたovaファイル名 再作成後のovaファイル名
(例:ovftool --acceptAllEulas C:\Users\user\Downloads\vSphereDataProtection-6.1.5.ova C:\Users\user\Downloads\vSphereDataProtection-6.1.5-test.ova)
 
 

 
作り直したovaファイルで無事デプロイすることができ、本記事には書いておりませんがバックアップ・リストアともに成功しました。
 

 
なお、解決してくれるはず、と途中で書いてみたものの、VDPは今回のバージョンでリリース終了のため、わかんないですね…。
 
vSphere Data Protection End of Availability

「仮想マシンの統合が必要なステータス」の発生要因と対処方法

仮想マシンの統合が必要なステータス」という警告を久々に見たのでまとめました。
 

 
【発生要因】
 
この警告が出るタイミングとしては色々ありますが主な要因としてKBに以下の内容が記載されています。
 
 “・ファイルがロックされているため、スナップショットのコミットに失敗する。"
 “・スナップショットのコミット時に vCenter Server と ESXi/ESX ホスト間の通信が一時的に失われる。この問題の最も一般的な原因は、ESXi/ESX ホスト管理エージェント hostd に影響する可能性のある環境問題です。"
 
 vSphere 5.x/6.0 でスナップショットを統合する方法 (2079926)
 
今回はスナップショットを持つ仮想マシンをStorage vMotionした時に発生しましたが、覚えている限りでは以下の状況で発生したように思います。
 
・古いSnapshotを削除した
・たくさんのSnapshotを削除した
・スナップショットを持つ仮想マシンを削除した←New!
 
【対処方法】
 
仮想マシンを右クリック>スナップショット>統合」をクリックします。
 

 
「統合の確認」というメッセージが出るため、「はい」をクリックします。
 

 
サマリ画面に警告が表示されなくなったら、作業は完了です。
 

 
【上記対処方法を実行しても警告が消えない場合】
 
スナップショットを長期間放置して削除した時にこの警告が発生して、なおかつこの警告が消えない時があります。この警告が発生していても仮想マシン内のサービス等に影響はないはずですが、今後のことを考えると直しておいた方がいいと思います。ちなみにこの現象に遭遇した時は調べる時間もなかったので、クローン作って解決という力技をやってしまいました。
 
そもそもスナップショットはテスト用のどうでもいい仮想マシン以外は長期間放置するべきではない、のですが・・・。

標準スイッチから分散スイッチへの移行(2/2)~分散スイッチへの移行~

標準スイッチから分散スイッチへの移行を初めて行った時のログです。初めて行った時のログのため、ちょっと迷走した部分も含んでいます。
 
現在標準スイッチには以下のポートグループがあります。
 
管理用ポートグループ:Management Network
仮想マシン用ポートグループ:VM Network
 
管理ネットワーク用のVMkernelポートと仮想マシン用のポートがありますが、これを移行します。
 
移行元の標準スイッチがあるホストの「Manage>Networking>Virtual switches」をクリックします。
 

 
移行先の分散スイッチを選択した状態で赤で囲った部分をクリックします。
 

 
-------------------切り取り-------------------
 
※次の「切り取り」までは失敗したログです。移行手順のみ確認する場合は飛ばしてください。
 
物理NICとVMkernelと仮想マシンネットワーク、全てにチェックを入れて「Next」をクリックします。
 

 
「Assign uplink」をクリックして、分散スイッチの空いているアップリンクにvmnic0を割り当てます。
 

 

 

 
警告がでました。移行できない模様です…が、試しに「Assign port group」をクリックして最後までやってみます。
 

 

 
警告が消えません。ネットワークが切断されるかも、とのこと。
 

 
このときの「No impact」ですが、Overall impact statusはあくまでiSCSIの部分だけなんでしょうか…?
 

 
「Assign port group」をクリックして、仮想マシンネットワークも移動させます。
 

 

 

 
「Finish」をクリックします。
 

 
切れましたね!ついでにロールバックも走ってくれたので元通りになりました。先ほど実行しようとしていたタスクが画面右で止まってます。
 

 
具体的にどこが切れたかというとクライアント端末からのpingでは、仮想マシン(vcsa02)との通信が切れました。
 
vcsa02に対してのping(移行中に途切れた)

 
esxi02に対してのping(移行中も途切れなかった)

 
画面右端の停止しているタスクをクリックし、ネットワークの移行設定に戻ります。
 

 
先ほど警告がでていた個所で「Reset changes」をクリックして設定をもとに戻します。
 

 

 
「Next」をクリックすると新しい警告がでました。
物理NICを全部なくすな、とのことなので「Back」でStep2に戻ります
 

 
先ほどのVMkernelと同様に「Reset changes」をクリックすることでようやく「Finish」ボタンをクリックできるようになりました。
 

 

 
結局のところ、移行できたのは仮想マシンネットワークだけで、移行中は同ネットワークを使用している仮想マシンとの通信が途絶えました。
 

 
あと、詳しくは書いてないですが、ロールバックも走っている模様。
 

 
よくわからないため、仕切り直し。
 
-------------------切り取り-------------------
 
先ほどの失敗を活かして、仮想マシンネットワークだけを移行しようと思います。
 

 
「Assign port group」で分散スイッチ側のポートグループを指定します。
 

 
「Finish」をクリックしましたところ、仮想マシンに対してもESXiに対してもpingは切れてません!
 

 
無事成功した模様です。
 

 
次にVMkernelを移行します。
 

 
「Assign port group」しましたが、先ほどと異なり、ネットワーク切れるかも…、みたいな警告はでていません。
 

 
とりあえず緑のチェックだけ確認して「Next」。
 

 
「Finish」をクリックしましたが、同じくpingは途切れません。
 

 
最期に物理NICを移行して分散スイッチへの移行は完了です。長かった!!
 

 

 

 

 
一種類一種類、きちんと設定すればpingが途切れることもアラートがあがることもありませんでした。切り取り線以降疲れてきたのでスクリーンショットが雑になった感が否めないですが、まぁそれはそれとして分散スイッチへの移行手順確認完了です。
 

 
 

標準スイッチから分散スイッチへの移行(1/2)~分散スイッチの作成~

標準スイッチを分散スイッチへ移行する手順を確認するため、分散スイッチを作成します。
 
標準スイッチに管理用のVMkernelポートと、仮想マシン用のポートがあってNICが一枚ついている状態です。
 

 
分散スイッチを追加します。
 

 

 

 
NICが4つついているサーバなので、「4」が表示されたのではないかなぁと思ってます。
 

 

 
分散スイッチが作成されました。
 

 
作成した分散スイッチにホストを追加します。
 

 

 

 

 

 

 
「Assign uplink」をクリックして、未使用のvmnic1を分散スイッチにひもづけます。
 

 
「Uplinkの番号を指定して「OK」をクリックします。
 

 

 
vmnic2、3についても上記作業を繰り返します。
 

 
 

 
「Finish」をクリックすると分散スイッチが作成されます。
 

 
分散スイッチが作成されました。
 

 
次回、分散スイッチへの移行ログをのせます。めっさ長いです。

vSphere Management Assistant(vMA)6.5の展開と初期設定

 【vMAの展開と初期設定】
 
(1)My VMwareからvMAのパッケージ(zip)をダウンロードします。
 
(2)zipファイルを解凍します。
 

 
(3)vCenterからESXi上に展開する場合は、通常のovfテンプレートの展開方法と同じです。
 

 
[Browse...]ボタンでファイル選択する際に、解凍した4つのファイル全てを選択する必要があります。
なお、この選択がグレーアウトしていたり、警告が出ている場合は、ブラウザのバージョンや種類が適切でなかったり、統合プラグインが正常にインストールされていない可能性があります。
 

 

 

 

 

 

 

 
ちなみにここでIPアドレスの設定を行なっていますが、展開後には反映されていないため再度設定する必要があります。使うぶんには後で再設定するため問題ないですが、そのうち調べてみようかなと。
 

 

 
(4)展開が完了したら、パワーオンしてコンソールを開き、各種設定を行います。
 
今回はホスト名とDNSIPアドレスの設定、そして最後に管理者パスワードの変更を行っています。
 

 
《ホスト名の設定》
 
ホスト名の設定は「3」番で行います。
 

 
DNSの設定》
 
DNSの設定は「4」番で行います。
 

 
《IPの設定》
 
IPの設定は「6」番で行います。
今回はIPv6無効、IPv4固定で設定しています。同様の設定を行う場合は、下図の赤枠部分で「y」を入力する必要があります。
 

 
《管理者パスワードの変更》
 
Main Menuには存在しませんが、「1」を押すことで管理者パスワードをデフォルトから変更可能です。
 
 Old Password : vmware
 New Password : 任意
 Retype new password : 上記と同じ
 

 
入力が終わると、いくつかのチェックの後、以下の画面になります。
 
次回以降、管理者でログインする場合、以下のアカウントを使用してログインする必要があります。
 
 User ID : vi-admin
 Password : 先ほど設定したパスワード
 

 
これでvMAの展開と初期設定は完了です。
 
 
 
 
 
 
 
 
 

vSANを再構成する際の注意点(前使ってたディスクが使えない場合)

vSAN環境ができたため、オンオフをいじろうとしたらキャッシュ領域と容量領域として選択していたディスクが消えていました。ホストの情報を見ると消えてはいないようですが、なぜかvSANに使用できません。
 
調べてみたところ、vSANに使用するディスクはカラである必要があって、同じディスクでvSANを再構成する場合は、パーティション情報を削除する必要があるようです。
 
vSAN検証しようと思って解除した時に初めてこの問題にぶち当たり、コマンドでパーティション情報を消すなどの方法が見つかりましたが、ちょっと難しかったので色々やってみたらGUI上の操作で可能でした。
 
【注意事項】
 
パーティション情報の削除は各ホストごとに実施します。間違ってブート領域等の環境を削除しないよう注意してください。
また、パーティションの削除に失敗する際は、ホストを再起動してから再度実行することで成功する可能性があります。
 
パーティションの削除方法】
 
「ホスト選択>Configureタブ>Storage>Storage Devices」からvSANに使用するディスクを選択した状態で、「All Actions>Erase partitions…」を選択します。
 

 
以上です。パーティション情報とか警告とかもこの後出たと思いますが、内容を確認してOKとか押せば大丈夫です。(スクショ撮り忘れ)

Workstation ProでvSAN環境を構築する

Workstation Pro上にvSAN環境を構築しました。
 
実際の構築には、ネットワークの構成を考えたり、VMkernelの設定をしたり、ディスク容量の計算をしたり、ストレージポリシーの設定をしたりと、色々ありますが、手っ取り早くvSAN環境を手元に構築して、設定画面を確認や手順の確認するのにとても便利だと思いました。
 
【PCスペック】
 
CPU:i7-6700K(4コア、8スレッド)
Memory:48GB
SSD:250GB
HD:1TB
 
仮想マシンは主にSSDに配置してます。
 
【環境情報】
 
vCenter Server:VMware-VCSA-all-6.5.0-5318154.iso
ESXi:Nested_ESXi6.5d_Appliance_Template_v1.0.ova
 
 ネスト用のESXiはここでダウンロードしました。
 
 ESXi 6.5 Virtual Appliance is now available
 
 ※本記事は上記資材が2017/08/06の時点の構成のものです。作者様が構成を変更された場合、適宜変更が必要となる場合がございます。
 
【構築の流れ】
 
(1)インストール資材の入手
 ・ネスト用ESXi
 ・vCenter Server Applianceの入手
 
(2)ESXiの展開(本環境だと4台)
 
(3)vCSAの展開(ESXi上に展開)
 
(4)vCSAにクラスタを一つ作成し、配下にESXi3台を追加
 
(5)vSANを有効にする
 
【構築作業】
 
(1)インストール資材の入手
インストーラはMy VMwareと冒頭のURLからダウンロードします。
 
(2)ESXiの展開
ESXiの構成はovfファイルの設定をほぼそのまま使います。
 
ダウンロードしてきたovaファイルをダブルクリックすると以下の画面が表示されるため、インベントリ名と保存場所を選択して「Import」をクリックするだけです。
 

 
契約書に同意するため「Accept」をクリックします。
 

 
以下の警告では「Retry」をクリックしてください。
 

 
展開終了後、以下のスペックのESXiが展開されます。
CPUの以下の部分にチェックを入れ、
そのほか部分は目的に応じて適宜変更を加えてください。
 

 
vCenter Serverを構築し、作成したホストをクラスタの配下に置きます。
 
 
色々警告が出ていますが、現在の設定状態に関することなので無視して問題ありません。
 

 
クラスタの「Configure」タブにvSANの構成を行える箇所があります。
「vSAN>General>Configure...」です。
 

 
vSANを作って動作確認するだけのため、全てデフォルトで設定しております。また、今回ダウンロードしたネスト用のESXiがvSANを作成するにあたり適切な設定がなされているもののため、「Next」を推していくだけでvSANの構築は完了します。
 

 

 

 

f:id:udon0418:20170807132318p:plain

 

 
以上でvSANの構築は完了です。
 
最後に本環境を構築するにあたり、参考にさせていただいたサイトを以下に記載させていただきます。