CrashPlanバックアップ用のVMの構築

paradiseがNFSでシェアしている/homeをクラウドにバックアップ。
CrashPlanのサービスを使用。

バックアップ専用VMのインストール

Ubuntu Server 14.04 LTS (64bit)で新規VMをデプロイ。ホスト名をpompeiiにする。
adminというユーザー名が作成できないので、一旦別の名前 (ここではpompeiiadmin)で作成して、後から変更の予定。
基本的に最小構成で、OpenSSH Serverのみインストール。

pompeiiadminでログインし、下記を実行。新規ユーザーpompeiiを作成。

sudo groupadd -g 1100 admin &&
sudo mkdir /opt/home &&
sudo useradd -d /opt/home/admin -m -g admin -u 1100 -s /bin/bash &&
sudo usermod -G adm,cdrom,sudo,dip,plugdev,lpadmin,sambashare admin &&
sudo passwd admin

adminでログインし直し、下記を実行。pompeiiadminを削除。

sudo userdel pompeiiadmin &&
sudo rm -rf /home/pompeiiadmin

IPの固定化。/etc/network/interfacesを下記のように編集。

# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).

# The loopback network interface
auto lo
iface lo inet loopback

# The primary network interface
auto eth0
#iface eth0 inet dhcp
iface eth0 inet static
address 192.168.0.12
network 192.168.0.0
netmask 255.255.255.0
broadcast 192.168.0.255
gateway 192.168.0.1
dns-nameservers 192.168.0.1

NFSで/homeのマウント。

sudo apt-get install nfs-common

で、nfs関連プログラムをインストールし、/etc/fstabに下記の行を追加

192.168.0.11:/home	/home	nfs	rw,nfsvers=3	0	0

CrashPlanをインストール。

wget http://download2.us.code42.com/installs/linux/install/CrashPlan/CrashPlan_3.7.0_Linux.tgz &&
tar zxf CrashPlan_3.7.0_Linux.tgz &&
cd CrashPlan-install &&
sudo ./install.sh &&
cd ../ &&
rm -rf CrashPlan-install

基本的に全てデフォルトの設定でOK

Macから設定が出来るように設定変更。

sudo cp /usr/local/crashplan/conf/my.service.xml{,bak} &&
sudo sed -i -e 's%<serviceHost>127.0.0.1</serviceHost>%<serviceHost>0.0.0.0</serviceHost>%g' /usr/local/crashplan/conf/my.service.xml &&
sudo /etc/init.d/crashplan restart

Macの設定

MacにもCrashPlanをインストール。
/Applications/CrashPlan.app/Contents/Resources/Java/conf/ui.propertiesで、

serviceHost=192.168.0.12

を設定し、GUIでpompeiiに繋げるようにする。

GUI上から、/home全体をバックアップするように設定。

RAID5の再構築

作業日: 6 Apr., 2015

スペアを含めて4台のHDDで構成していたRAID5だが、HDDが2つ壊れてしまったので、新しいHDDを買ってRAID5を再構成。
その内にRAID5の容量拡張もしたいので、一旦緊急避難的に1台だけ追加。

準備

まず、壊れたHDDを取り除いて、新しいHDDをセットし、PCを起動。

cat /proc/mdstat

md127 : active raid5 sdc1[1] sdb1[3]
      3907023872 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]

のように表示され、U_となっていることから、RAID5がDegradedとなっていることがわかる。

新HDDのパーティショニング

sudo fdisk -l

で、新しいHDDは、/dev/sdaと認識されていることがわかった。
下記のような表示。

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

Disk /dev/sda doesn't contain a valid partition table

ちなみに、そのカウンターパートのHDDは、/dev/sdb、/dev/sdcとして認識され、

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048  3907029167  1953513560   fd  Linux raid autodetect

及び、

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x56697a44

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048  3907029167  1953513560   fd  Linux raid autodetect

のようになっている。

今回は、両方のHDDのセクター数は同じであるため、

sudo fidsk /dev/sde

で全域を使って基本パーティションを作成し、ディスクラベルをfd Linux raid autodetectに設定。

sudo fdisk -l

の表示は、

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x25f3cca8

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect

のようになる。

RAID5の再構築

RAID5に新しいディスクを追加する。RAID5は/dev/md/datastoreとして設定されているので、

sudo mdadm --manage /dev/md/datastore --add /dev/sda1

を実行。
ちなみに、RAIDのパスは、/etc/mdadm/mdadm.confに書かれている。別に、/proc/mdstatの/mdev/md127を使っても良い。

後は、

sudo cat /proc/mdstat

で進捗状況を確認。

途中では、

md127 : active raid5 sda1[4] sdc1[1] sdb1[3]
      3907023872 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
      [>....................]  recovery =  0.0% (645720/1953511936) finish=1108.9min speed=29350K/sec

みたいになるが、終了すると

XXXX

のようになる。

ESXi5.1へのアップデート

作業日: 29 Apr., 2013

ESXiの5.1がだいぶ前に登場していたようなので、5.0からアップデートする。

パッチのダウンロード

下記URLからパッチをダウンロード
http://www.vmware.com/patchmgr/findPatch.portal
適当に検索して、ESXi510-201303001.zipをダウンロード

ESXiのアップデート

まず、vSphere Clientから、全てのVM停止した後にメンテナンスモードに切り替える。ダウンロードしたファイルをvSphere Clientから適当な場所にアップロードする。

次に、sshでESXiにログインし、パッチファイルが置いてあるディレクトリで下記コマンドを実行。

esxcli software vib install -d ./ESXi510-201303001.zip

本来は、installではなくupdateのはずだがなぜか依存関係のエラーが出たので、installにした。再起動しろと言われるので、言われたとおりにESXiサーバを再起動する。

vSphere Clientのアップデート

vSphere Clientから繋ごうとすると、vSphere Clientをアップデートするように言われるので、指示に従ってアップデートする。

最後に、メンテナンスモードを解除して、VMを再起動する。

ESXiサーバーのセットアップ

VMware vSphere Hypervisor 5 (ESXi 5) をインストールする。

計算機の仕様

  • メインボード: Intel S1200KP (Server board)
  • CPU: Intel Xeon E3-1225
  • Memory: 4GB x 2 (ECC, unbuffered)
  • NIC: Intel 1Gbps x 2
  • 起動ディスク: 4GB USB stick

インストール

4GBのUSBメモリにインストール。インストール後、コンソールからルートパスワード、IPアドレス等変更、SSH、ESXi ShellをEnableに設定する。

  • IPアドレス: 192.168.0.2
  • Hostname: grenade

vSphere Clientからのアクセス

LAN内からだと、https://192.168.0.2/から、vSphere Clientをダウンロードできる。

インストール後、vSphere ClientからIPアドレス: 192.168.0.2、ユーザー名: rootでログイン可能なことを確認する。