タグ: vSphere

  • Windows版vCenterServerのメモリ要件

    Windows版vCenter Serverのメモリサイズの要件は、管理するホスト数や仮想マシン数(VM数)によって異なる。スモールスタートで始めた場合、VM数の増加や同じサーバで動く他システム等によって、vCenter Serverのプロセスが不安定になる。vCenter Serverのプロセスが不安定になった場合には、メモリを追加する。

    • ESXiが最大10台or100VMのとき
      • メモリ 8GB
      • CPU 2コア
    • ESXiが最大100台or1000VMのとき
      • メモリ 16GB
      • CPU 4コア
    • ESXiが最大400台or4000VMのとき
      • メモリ 24GB
      • CPU 8コア
    • ESXiが最大1000台or10000VMのとき
      • メモリ 32GB
      • CPU 16コア

    なお、メモリを追加する場合には、vCenter Serverの要件は、推奨ではなく、最低限なので、バックアップの仕組み等でメモリの消費量が増える場合には、上記のメモリサイズよりも大きいメモリをWindowsに割り当てる必要がある。

    参考
    https://docs.vmware.com/jp/VMware-vSphere/6.0/com.vmware.vsphere.upgrade.doc/GUID-D2121DC5-1FC8-48DC-A4BA-C3FD72D0BE77.html

  • vSphere 7が発表された

    VMwareから、vSphere 7が発表された。従来通りの使い方もできるけれど、一番の注目は、Kubernetesをネイティブサポートしていて、同じプラットフォーム上で、コンテナも仮想マシンも実行できるということ。コンテナの管理を考えると、ちょっと使いにくかった部分があるけれど、vSphere7として管理できるのであれば、いい感じで使えるかもしれないと、ちょっと期待。

    あとは、vCenter ServerのHTML5コンソールで対応していなかった部分(CLIオンリー)だったところが対応されていてくれるとよい。詳細はこれから出てくるので楽しみだ。一通り情報が出揃ってからかな、vSphere 7へアップグレードするかどうかは。新機能が多いので、調べること、検証したり覚えたりすることは、とても多そうだ。

    https://blogs.vmware.com/vsphere/2020/03/vsphere-7.html

  • V2VでVMを新しいESXi上に持って行ったところ、LinuxのEth1が有効にならない

    仮想マシン(VM)をV2VでESXi 5.1から、ESXi 6.7に移行したところ、ネットワークに接続されてなかった。 ifconfigでIPアドレスとインターフェースの状況を確認したが、IPアドレスは表示されなかった。

    service network restart” でネットワークインターフェースを再起動したところ、下記のエラーを含む内容が表示された。

    Device eth1 has different MAC address than expected, ingoring
    

    デバイスのMacアドレスが異なるということなので、「/etc/sysconfig/network-script/ifcfg-eth1」を編集し、 「HWADDR=」の行を新しくESXiで割り当てられているMACアドレスで書き換える。 今回は、Eth1だったが、実際の環境に合わせて、Eth0などに読み替える。

    編集後、下記のコマンドでネットワークインターフェースを再起動する。

    service network restart
    

    無事にEth1が起動し、ネットワーク接続ができるようになった。

  • vCenter Server 6.7 のインストーラを実行したが起動しない

    Ubuntu 18.04 でvCenter Server 6.7 をインストールするために、インストーラをダブルクリックしたが、起動しない。 パスの問題かもしれないので、ターミナルからインストーラを起動させてみたところ、下記のエラーが表示された。

    zen@vCenterServer67:/media/zen/VMware VCSA/vcsa-ui-installer/lin64$ ./installer
    ./installer: error while loading shared libraries: libgconf-2.so.4: cannot open shared object file: No such file or directory
    

    インストールに必要な「libgconf2-4」がUbuntu上にインストールされておらず、起動しないようだ。 なので、aptを使ってインストールする。

    念のため、パッケージがあるかどうかを確認してから、インストール。

    apt search libgconf2
    sudo apt install libgconf2-4
    

    正常にlibgconf2-4がインストールされた後に、vCenter Serverのインストーラを起動させたところ、正常にGUIが立ち上がった。

    インストールログ

    zen@vCenterServer67:~$ apt search libgconf2
    ソート中... 完了
    全文検索... 完了  
    libgconf2-4/bionic 3.2.6-4ubuntu1 amd64
      GNOME 設定データベースシステム (ダミーパッケージ)
    
    libgconf2-dev/bionic 3.2.6-4ubuntu1 amd64
      GNOME configuration database system (development)
    
    libgconf2-doc/bionic,bionic 3.2.6-4ubuntu1 all
      GNOME configuration database system (API reference)
    
    libgconf2.0-cil/bionic,bionic 2.24.2-4 all
      GConf 2.24 の CLI バインディング
    
    libgconf2.0-cil-dev/bionic,bionic 2.24.2-4 all
      GConf 2.24 の CLI バインディング
    
    zen@vCenterServer67:~$ 
    zen@vCenterServer67:~$ 
    zen@vCenterServer67:~$ sudo apt install libgconf2-4
    [sudo] zen のパスワード: 
    パッケージリストを読み込んでいます... 完了
    依存関係ツリーを作成しています                
    状態情報を読み取っています... 完了
    以下の追加パッケージがインストールされます:
      gconf-service gconf-service-backend gconf2-common libgconf-2-4
    以下のパッケージが新たにインストールされます:
      gconf-service gconf-service-backend gconf2-common libgconf-2-4 libgconf2-4
    アップグレード: 0 個、新規インストール: 5 個、削除: 0 個、保留: 0 個。
    847 kB のアーカイブを取得する必要があります。
    この操作後に追加で 8,422 kB のディスク容量が消費されます。
    続行しますか? [Y/n] Y
    取得:1 http://jp.archive.ubuntu.com/ubuntu bionic/universe amd64 gconf2-common all 3.2.6-4ubuntu1 [700 kB]
    取得:2 http://jp.archive.ubuntu.com/ubuntu bionic/universe amd64 libgconf-2-4 amd64 3.2.6-4ubuntu1 [84.8 kB]
    取得:3 http://jp.archive.ubuntu.com/ubuntu bionic/universe amd64 gconf-service-backend amd64 3.2.6-4ubuntu1 [58.1 kB]
    取得:4 http://jp.archive.ubuntu.com/ubuntu bionic/universe amd64 gconf-service amd64 3.2.6-4ubuntu1 [2,036 B]
    取得:5 http://jp.archive.ubuntu.com/ubuntu bionic/universe amd64 libgconf2-4 amd64 3.2.6-4ubuntu1 [2,044 B]
    847 kB を 0秒 で取得しました (3,314 kB/s)
    以前に未選択のパッケージ gconf2-common を選択しています。
    (データベースを読み込んでいます ... 現在 171039 個のファイルとディレクトリがインストールされています。)
    .../gconf2-common_3.2.6-4ubuntu1_all.deb を展開する準備をしています ...
    gconf2-common (3.2.6-4ubuntu1) を展開しています...
    以前に未選択のパッケージ libgconf-2-4:amd64 を選択しています。
    .../libgconf-2-4_3.2.6-4ubuntu1_amd64.deb を展開する準備をしています ...
    libgconf-2-4:amd64 (3.2.6-4ubuntu1) を展開しています...
    以前に未選択のパッケージ gconf-service-backend を選択しています。
    .../gconf-service-backend_3.2.6-4ubuntu1_amd64.deb を展開する準備をしています ...
    gconf-service-backend (3.2.6-4ubuntu1) を展開しています...
    以前に未選択のパッケージ gconf-service を選択しています。
    .../gconf-service_3.2.6-4ubuntu1_amd64.deb を展開する準備をしています ...
    gconf-service (3.2.6-4ubuntu1) を展開しています...
    以前に未選択のパッケージ libgconf2-4:amd64 を選択しています。
    .../libgconf2-4_3.2.6-4ubuntu1_amd64.deb を展開する準備をしています ...
    libgconf2-4:amd64 (3.2.6-4ubuntu1) を展開しています...
    gconf2-common (3.2.6-4ubuntu1) を設定しています ...
    
    Creating config file /etc/gconf/2/path with new version
    libgconf-2-4:amd64 (3.2.6-4ubuntu1) を設定しています ...
    libc-bin (2.27-3ubuntu1) のトリガを処理しています ...
    gconf-service (3.2.6-4ubuntu1) を設定しています ...
    gconf-service-backend (3.2.6-4ubuntu1) を設定しています ...
    libgconf2-4:amd64 (3.2.6-4ubuntu1) を設定しています ...
    zen@vCenterServer67:~$
    
  • ESXi 6.7でも仮想マシン作成時に、Windows NTが選べる

    ESXi 6.7(vSphere 6.7)の環境でも、まだWindows NT、95、98、2000用の仮想マシン設定が選べる。(MS DOSも)

    サポート対象外になっているものもあるはずだが、サポート無でも仮想マシンの作成はできるようだ。

  • 分散仮想スイッチにホスト(ESXi)を参加させると、分散ポートグループも自動的に設定される

    分散仮想スイッチ(Distributed Switch)にホスト(ESXi)を参加させると、分散ポートグループも自動的に設定される。分散ポートグループが分散仮想スイッチ(Distributed Switch)に紐づいているため。ホスト(ESXi)側での設定は不要。

  • Management NetworkのNICを分散仮想スイッチに参加させると。。。

    Management NetworkのNICを分散仮想スイッチ(Distributed Switch)に参加させる時、Management Networkの設定を移行する先の分散ポートグループを選択する画面がある。 この画面で、Management Networkと同じネットワークの分散ポートグループを選択すれば、マネジメントネットワークの設定(IPアドレスなどの設定)は引き継がれ、ネットワークが切れることなく設定ができる。

    ただし、選択した分散ポートグループの設定(ネットワーク)が、異なる場合は別ネットワークに設定がされるため切れるので注意。

  • 既存の分散仮想スイッチにESXi(ホスト)を追加する方法

    既に分散仮想スイッチ(Distributed Switch)が組まれた状態のvSphere環境で、新しくESXiのホストを設定する場合は、追加するESXiでネットワーク設定をするのではなく、既存の分散仮想スイッチ(Distributed Switch)の設定に、ホスト(ESXi)を追加する。

    対象は、VCenter Server 6.0とESXi6.0u2の環境。

    設定方法

    1. vSphere Web CientでvCenter Serverにアクセスする。
    2. 「ホーム」で「ネットワーク」を選択する。
    3. 左側のツリーから、ホストを追加する分散仮想スイッチ(Distributed Switch)を選択する。
    4. 右クリックし、「ホストの追加と管理」を選択する。
    5. ウィザードが開始されるので、「ホストの追加」を選択し、次へ。
    6. ホストの選択画面になり、画面上にはホストが表示されていない状態なので、「+新規ホスト…」をクリックする。
    7. vCenterに登録されており、分散仮想スイッチを使用していないホストが表示されるので、選択(チェックを入れる)し、「OK」をクリックする。
    8. ホストの選択画面に、選択したホストが表示されていることを確認し、次へ。
    9. ネットワークアダプタのタスクの選択画面になるので、適切なものを選択する(既存で設定されているホストがある場合は、それを参考にする)。次へ。
    10. 物理ネットワークアダプタの管理画面になる。
    11. 使用するNICを選択した状態で、「アップリンクの割り当て」をクリックする。
    12. アップリンクの割り当てになるので、「(自動割り当て)」もしくは自分で選択する。
    13. 必要なNICの数だけ、作業を繰り返す。
    14. 割り当て済みのNICは、「このスイッチ上」の部分に表示されている。
    15. 次へ。
    16. 既にManagement Networkが割当たっているNICを分散仮想スイッチに参加させる場合は、設定を分散仮想スイッチに移行するかどうかを問われるので、該当のネットワークアダプタを選択し、「ポートグループの割り当て」をクリックする。
    17. Management Networkを移行する先の分散ポートグループを選択し、OKをクリックする。
    18. ソースポートグループとターゲットポートグループが設定されたことを確認し、次へ。
    19. 影響分析が行われるので、「影響ありません」になっていることを確認し、次へ。(この表記になっていない場合は、なんらかの影響がある)
    20. 確認画面があるので、確認し、終了をクリックする。
    21. vSphere Distributed Switchの再構成が始まり、次に追加するホストのネットワーク構成の更新が行われる。終われば分散仮想スイッチの設定は完了。

    参考
    https://docs.vmware.com/jp/VMware-vSphere/6.5/com.vmware.vsphere.networking.doc/GUID-E90C1B0D-82CB-4A3D-BE1B-0FDCD6575725.html

  • VMware vSphere 6.7が出るのね。

    VMwareから、vSphere 6.7が発表された。

    https://blogs.vmware.com/vsphere/2018/04/introducing-vmware-vsphere-6-7.html

    さらなるHTML5化もあるようだけど、今回はセキュリティ機能の強化に力を入れているようだ。TPM2.0のための仮想TPMチップの機能を設けて、VMの暗号化を図ったりなど。環境によっては、暗号化されているほうがよいだろうし、いい機能強化なんじゃないかな。ハイブリッドクラウドの機能も強化されているし、便利そう。ただ、クロスプラットフォームに対応しているということは、また、OracleDBのライセンスの解釈が大変になるような気はする。そこらは大丈夫だろうか。

  • ESX4.1がiSCSI関連エラーでクラッシュした。

    ESX4.1が原因不明のパープルスクリーンになった(Windowsでいうところのブルースクリーン)。
    パープルスクリーンの画面をみたところ、下記のようなiSCSIに関するエラーが表示されていた。

    ~~~~ iscsivmk_TaskHandleTx ~~~~
    ~~~~ iscsivmk_ConnProcessTxSchQueue ~~~~
    

    VMwareのナレッジを探したところ、該当するものが見つかった。
    iSCSIスタックに関する障害のナレッジが見つかった。

    原因は、ストレージ側にあるようで、背景を探ると、ストレージに問題があり、切断中に競合すると、ESXのiSCSIカーネルのスレッドで問題が出るようだ。

    iSCSIカーネルに対しては、VMwareから修正パッチが出ている。

    ■該当するナレッジ情報

    https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007011