『PC関連』 MacBook ProのSSDを大容量SSDに換装する

思い立って、手持ちの13インチMacBook Pro Mid 2009と13インチMacBook Pro Early 2011のHDDとSSDを換装したのでそのメモ。
Early 2011のMacBook Proは、MacOSのパーティションのコピーでかなり手こずりました。
そのためのメモを残すのが主目的です。

背景

MacBook Pro Mid 2009はメモリ4GB、160GB HDDでWindows7を入れています。
これは艦これ専用マシンになってます。

MacBook Pro Early 2011はメモリ8GB、120GB SSDでMacOSが入っています。
これ、SSDがとっくの昔に容量が足りなくなったので、DVD-ROMドライブを取り外して余っていた500GB HDDを入れていました

で、ここ最近の使っている感じだと、
Mid 2009のマシンは、艦これをやるには十分なんだけれども複数アプリを起動させているとタスク切り替えが異様に重たかったり、サスペンド状態から復帰するときに重たかったりとストレスがたまる状態でした。
重たいのはメモリスワップが発生するときのHDDアクセスが原因と感じていました。
これはSSDに変えたらレスポンス改善すると考えました。

Early 2011のマシンは、ウェブブラウジングやTwitterクライアントを動かしたりしていましたが、Yosemiteにアップグレードしてから、レスポンスがかなり悪化して使いにくい状態でした。
ここ最近のMacOSは、メモリをできる限り使うポリシーになっているので、そこが悪さをしているのかなとも思っていました。
正直、MacOSである必要もないので、Windowsをインストールして普段はWindowsを使うようにしようかなと考えたのです。
で、DVDドライブの代わりにつけているHDDにWindowsをインストールしようと思ったのですが、DVDドライブが内蔵されていないとWindowsをインストール出来ないのです。
そうなると、こちらもSSDを交換して内蔵DVDドライブを元に戻す必要があると考えました。

SSDドライブを購入

256GBのSSDをMid 2009に、512GBのSSDをEarly 2011にと考えて、以下のSSDを購入しました。

Crucial MX100 2.5インチ内蔵型SSD 256GB SATAIII CT256MX100SSD1
Crucial Technology (2014-06-05)
売り上げランキング: 126
Crucial MX100 2.5インチ内蔵型SSD 512GB SATAIII CT512MX100SSD1
Crucial Technology (2014-06-05)
売り上げランキング: 101

特にこだわりがあったわけでは無いので、コストパフォーマンスで選びました。

SSD交換

まず、Mid 2009のMacBook Proの換装は、Windowsマシン化していたこともあったので、SSDをクローンさせて換装して終わりです。
新しいSSDで起動させたあとにパーティションを拡大して終了です。

SSD化でレスポンスが大幅アップしました。
今までは、艦これをしながらブラウザで他のページを見ていると重たくなって仕方が無かったのですが、気にならないレベルまで改善しました。
これであと2年は戦えそうです。

Early 2011のMacBook ProのSSD換装は、素直にクローンさせてパーティションを拡張させれば良いと思って試しました。
が、クローンされてちゃんと起動したのですが、パーティション拡大は出来ませんでした。

色々調べてみると、この記事が見つかりました。
新しいSSDが内蔵してある状態で、古いSSDをUSB接続して、古いSSDの復元ユーティリティを使えばパーティションサイズも拡張させつつ、古いSSDの内容を新しいSSDにコピーできるとあります。

ですが、自分の環境では外付けSSDに入っているはずの復元ユーティリティが起動しませんでした。
Optionキーを押しながらMacBook Proの電源を入れても復元ユーティリティのパーティションが現れません。

それではと、内蔵SSDの復元ユーティリティを起動させます。
これは、電源ONの時にCommand+Rを押しっぱなしで起動します。

やり方は先ほどの記事にも書いてあるので省略ですが、外付けSSDから内蔵SSDの方向への復元は出来ませんでした。

色々試行錯誤をした結果、古いSSDを内蔵させて、新しいSSDを外付けにして復元ユーティリティを起動させることで無事に復元できました。

MacOSが無事に立ち上がったことを確認した後に、Bootcampを設定してWindowsのインストールも行いました。
パーティションを半分半分にすることで、どちらのOSでも問題なく使えるようになる予定です。
現在、Windowsの設定中ですが、手持ちのライセンスはWindows7なので、インストール後のWindowsUpdateが中々終わりません(;つД`)
#そういえば、Windows8のライセンスも一つ余っているけど、どうしようか

これで、Early 2011のほうは、あと4年くらい戦えそうです。

まとめ

最近発売されているMacBook Pro Retinaはユーザーによるメモリの増設もSSD交換も出来ないですが、古いMacBook Proはユーザーの手でメモリ増設とSSD交換が出来るため、結構なところまで延命できそうです。

ということは、MacBook Retinaを買う場合は、少なくともメモリはMaxまで積んだマシンを買っておかないと長く使えなくなるってことですね。

『FreeBSD』 DNSが無いローカルネットワークでのマシンの名前解決方法

自宅のネットワーク構成が変わった話とそれに伴うサーバー変更の話を色々と書いてきました。

この過程で一番大きく変わったのが、ファイルサーバーが動的IPアドレスになったことです。
そして、DNSサーバーはマンションに設置しているサーバーを必ず使わなくてはいけなくなりました。

この環境でものすごく困るのが、クライアントマシンからサーバーへsshでログインするときです。
IPアドレスを直うちでログインする訳なのですが、毎日起動の度にIPアドレスが変わります。
また、各Windowsマシンにデータを共有させるためにファイルサーバー経由でrsyncをつかったデータ同期をさせているのですが、ここでもIPアドレスが必要になります。

その様なわけで、コロコロとIPアドレスが変わってしまうと困るわけです。
Windwosのファイル共有はSambaの名前解決機能を使うので特に問題は起きませんし、Macのファイル共有関係(主にTimeMachine)もAvahi-daemonの名前解決機能を使うので問題は起きません。

問題が起きるのは、sshなどのunix系(?)なツールを使うときです。

長々と背景を書いてきましたが要約すると、サーバーを含めてすべて動的IPアドレスで運用されているネットワークにおいて、名前解決をどのように行うかです。

解決方法ですが、Avahiの名前解決機能を使ってやります。
これは、Zeroconfって機能の実装の一つです。
AvahiではAppleが実装したmDNSに対応しています。
Macは標準でmDNS対応ですし、WindowsではiTunesと一緒にインストールされるBonjourで対応できます。

自宅のネットワーク環境ではこれをすべて満たすのでこれらを使って問題解決をしました。

具体的な設定方法ですが、FreeBSDマシン(Linuxマシン)でAvahi-daemonが動いている状態なら特に設定を変更しなくても、iTunesをインストール済みのWindowsマシンやMacから「サーバーのマシン名.local」でアクセス可能になります。
勿論、WindowsマシンやMacが相手でもマシン名.localでアクセス出来ます。

手っ取り早い確認方法は、

# ping 相手マシン名.local

をWindowsマシンやmacで実行することです。

FreeBSDなどのUnix系マシン上での名前解決には、ちょっと設定が必要なのです。
が、今回はWindwosとMacでローカルネットワーク内マシンの名前解決ができたら良いので、そこまで踏み込みません。
#/etc/nsswitch.confを編集するだけみたいですが。

今の今まで、こんな便利な機能を知らなかったなんて!

実践FreeBSDサーバ構築・運用ガイド
技術評論社 (2013-05-10)
売り上げランキング: 78,194

[linux/Debian] Debian/kFreeBSDでZFS メモリパラメータの設定

今まででZFSを使う準備はできているのですが、快適にというか、安全に使おうと思ったらもうちょっと設定が必要。

404 Blog Not Found 備忘録 – HP ProLiant MicroServer + FreeBSD + ZFS
にもあるように、ZFSが使うメモリサイズを指定しておきたい。
デフォルトの設定のままだと、メモリを使いすぎてカーネルごと落ちてしまうことがあるらしい。
メモリが溢れるまでの状態になるのは、ZFSの重複排除(dedup)を有効にした場合のようなので、普通に使っていると問題無さそうですが。

で、FreeBSDだと、/boot/loader.confを編集したら良いみたいですが、Debian/kFreeBSDだとそんなファイルはありません。

色々調べてみても全く情報が無い。
でも、全く情報が無いわけでは無く、探してみたら見つかりました。

/etc/grub.d/10_kfreebsdファイルで設定します。

設定前

# sysctl -a | grep arc_max
vfs.zfs.arc_max: 7229382656

/etc/grub.d/10_kfreebsdファイルの最後に
set kFreeBSD.vfs.zfs.arc_max=”4G”
を追加してやります。

# vim /etc/grub.d/10_kfreebsd
set kFreeBSD.vfs.zfs.arc_max=”4G”

必要なら他のパラメータも設定してやりましょう。

ファイル修正後、

# update-grub
# reboot

再起動した後に確認すると、

# sysctl -a | grep arc_max
vfs.zfs.arc_max: 4294967296

設定が変更されていることが解ります。

サンワサプライ 下L型シリアルATA3ケーブル 0.5m TK-SATA3-05SL
サンワサプライ
売り上げランキング: 95

[linux/Debian] 接続されているHDDの一覧と、シリアル番号を確認する方法

NASで沢山HDDを接続していると、いざDiskを交換するときにどれを交換したら良いのやらって事になります。
そこで、あらかじめそれぞれのHDDのシリアル番号と、HDDが接続されているポートをメモしておけば、交換するときに役に立ちます。

HDDのシリアル番号の確認方法は、HDDのラベルを直接見る方法が確実ですが、既に装着済みだったらどうするかって事になります。
その時は、smartctlを使いましょう。

# smartctl -a /dev/sda
smartctl 5.41 2011-06-09 r3365 [i686-linux-3.6.11] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Model Family: Kingston branded X25-V SSDs
Device Model: KINGSTON SSDNow 40GB
Serial Number: XXXXXXXXXXXXXX
LU WWN Device Id: 5 001517 9590d8db8
Firmware Version: 2CV102HA

といった感じで表示されます。FreeBSDなら、/dev/ada0とか指定してやります。
他に簡単に確認出来る方法はあるのかな?

次に、各HDDがどのデバイスに割り当たってるかの確認ですが、
Linuxの場合は、

cat /proc/scsi/scsi
Attached devices:
Host: scsi2 Channel: 00 Id: 00 Lun: 00
Vendor: ATA Model: KINGSTON SSDNow Rev: 2CV1
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi3 Channel: 00 Id: 00 Lun: 00
Vendor: ATA Model: ST2000DM001-1ER1 Rev: CC43
Type: Direct-Access ANSI SCSI revision: 05
・・・・

と表示される前から順番に、sda、sdb・・・と割当たっているようです。
もっと、直接的に解る方法はないのかな。

FreeBSDだと、

# camcontrol devlist
<INTEL SSDSA2M080G2GC 2CV102HD> at scbus0 target 0 lun 0 (ada0,pass0)
<ST3320620AS 3.AAK> at scbus3 target 0 lun 0 (ada1,pass1)

camcontrolコマンドで直ぐ解るようになっています。

/dev/sdaがどのハードデスクで、シリアル番号まで解っていたら、いざ/dev/sdaが壊れた時に、どのHDDが壊れたかシリアル番号で確認出来て、それを基にHDD交換ができるので、確実になります。

サンワサプライ 下L型シリアルATA3ケーブル 0.5m TK-SATA3-05SL
サンワサプライ
売り上げランキング: 72

[linux/Debian] Debian/kFreeBSDでZFS お試し編 その2

ZFSをVirtualBoxに入れたDEbian/kFreeBSDで試してみるのその2です。
Diskが壊れた時の交換方法と、大きいDiskに交換していって、領域を確認する方法を確認します。

1GBのアレイが順番に壊れたり、交換していく想定で、交換するのは3GBのDiskです。

まずは1台交換してみる

いきなり抜くのでは無く、offlineにしてDiskを交換してみます。
これは、大きいHDDに交換するときの手順を想定しています。

# zpool offline vol1 ada1

# zpool status
pool: vol1
state: DEGRADED
status: One or more devices has been taken offline by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using ‘zpool online’ or replace the device with
‘zpool replace’.
scan: none requested
config:

NAME STATE READ WRITE CKSUM
vol1 DEGRADED 0 0 0
-0 DEGRADED 0 0 0
13334899667277329527 OFFLINE 0 0 0 was /dev/ada1
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

ada1がofflineになって、プールがDegradedになっているのが確認出来ます。

HDD付け替え

電源を落としてDiskを同じ所に付け替えます。
Diskのサイズは3GBです。

電源ONにしたあと、

# zpool online vol1 ada1
warning: device ‘ada1’ onlined, but remains in faulted state
use ‘zpool replace’ to replace devices that are no longer present
# zpool status
pool: vol1
state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid. Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using ‘zpool replace’.
see: http://www.sun.com/msg/ZFS-8000-4J
scan: scrub repaired 0 in 0h0m with 0 errors on Sun Aug 3 01:36:22 2014
config:

NAME STATE READ WRITE CKSUM
vol1 DEGRADED 0 0 0
-0 DEGRADED 0 0 0
13334899667277329527 UNAVAIL 0 0 0 was /dev/ada1
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

onleineにしただけでは、まだDegradedのままです。

# zpool replace vol1 ada1
# zpool status
pool: vol1
state: ONLINE
scan: resilvered 64.5K in 0h0m with 0 errors on Sun Aug 3 01:37:33 2014
config:

NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
-0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
vol1 8.95G 290K 8.95G 0% 1.00x ONLINE –

zpool replaceをしてはじめてプールが回復します。
1GBのRAID-Zアレイのうち、1台を3GBにしたままでは、まだサイズは増えていません。

2台目はいきなりHDDを交換してみる

今度は、Diskが壊れたことを想定して、いきなりHDDを交換します。
これも3GBのDiskに交換しました。

# zpool status
pool: vol1
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using ‘zpool online’.
see: http://www.sun.com/msg/ZFS-8000-2Q
scan: resilvered 64.5K in 0h0m with 0 errors on Sun Aug 3 01:37:33 2014
config:

NAME STATE READ WRITE CKSUM
vol1 DEGRADED 0 0 0
-0 DEGRADED 0 0 0
ada1 ONLINE 0 0 0
18306556529790232082 UNAVAIL 0 0 0 was /dev/ada2
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

# zpool replace vol1 ada2
root@debian:/home/bayashi# zpool status
pool: vol1
state: ONLINE
scan: resilvered 59.5K in 0h0m with 0 errors on Sun Aug 3 01:42:43 2014
config:

NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
-0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

特に問題は無いですね。

ファイルが無い状態でDisk交換していても実感が無いので、ファイルを作っておきます。

# dd if=/dev/zero of=/vol1/work.img bs=1M count=800
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
vol1 8.95G 1.17G 7.78G 13% 1.00x ONLINE –

800MBのファイルを作ったけれども、実際に使われているのは1.17GB。パリティ分もあわせたサイズになっています。

3台目も交換して、プールサイズを拡張する

3台目も交換します。

# zpool replace vol1 ada3
root@debian:/home/bayashi# zpool status
pool: vol1
state: ONLINE
scan: resilvered 182M in 0h0m with 0 errors on Sun Aug 3 01:50:23 2014
config:

NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
-0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
vol1 8.95G 1.17G 7.78G 13% 1.00x ONLINE –

1GBのDiskがすべて3GBになったのに、プールのサイズが増えていません。

# zpool online -e vol1 ada1
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
vol1 15.0G 1.17G 13.8G 7% 1.00x ONLINE –
# zpool status
pool: vol1
state: ONLINE
scan: resilvered 182M in 0h0m with 0 errors on Sun Aug 3 01:50:23 2014
config:

NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
-0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

errors: No known data errors

zpool online -eを実行してはじめてサイズが拡張されます。
指定するDiskは、拡張するアレイに属しているならどれでも良いみたいです。

あらかじめ、autoexpandを有効にしておくと、3台目が置き換わった時点で自動的にサイズ拡張されるようです(未確認)。

# zpool set autoexpand=on vol1

あるいは、プール作成時に

zpool create -o autoexpand=on vol1 raidz ada1 ada2 ada3

としておけば良いみたいです(未確認)。

この状態でdfコマンドを打ってみると、

# df -h
ファイルシス サイズ 使用 残り 使用% マウント位置
/dev/ada0s1 7.4G 853M 6.0G 13% /
devfs 1.0K 1.0K 0 100% /dev
linprocfs 4.0K 4.0K 0 100% /proc
/sys 4.0K 4.0K 0 100% /sys
fdescfs 1.0K 1.0K 0 100% /dev/fd
tmpfs 8.0G 212K 8.0G 1% /run
tmpfs 5.0M 4.0K 5.0M 1% /run/lock
tmpfs 1.6M 4.0K 1.6M 1% /run/shm
vol1 9.9G 800M 9.1G 8% /vol1
vol1/visual 9.1G 40K 9.1G 1% /vol1/visual

このような感じに。
vol1とvol1/visualのサイズと残りサイズをみると、ちょっと混乱しますな。

まとめ

これで、NAS運用に必要最低限な事は一通り確認出来ました。
しっかり運用するためには、snapshotの設定と、必要最低限なファイルのバックアップ戦略を立てることですね
ほかに、ZFSが利用するメモリ容量を制限したいのですが、Debian/kFreeBSDだとどこで設定するのかが解らない。

[linux/Debian] Debian/kFreeBSDでZFS お試し編 その1

ZFSをVirtualBoxに入れたDEbian/kFreeBSDで試してみるのその1です。

必要なツールのインストール

apt-get install zfsutils

Diskの確認

dmes | grep ada

とやると、

ada0 at ata0 bus 0 scbus0 target 0 lun 0
ada0: ATA-6 device
ada0: 100.000MB/s transfers (UDMA5, PIO 65536bytes)
ada0: 8192MB (16777216 512 byte sectors: 16H 63S/T 16383C)
ada0: Previously was known as ad0

とか出てくるので、確認。

パーティションがあるHDDは

gpart destroy -F ada2

とする必要があるらしい(未確認)

RAID-Zでプールの作成

1GBの仮想ハードディスクを3台つないでやる。
それぞれのドライブが、ada1、ada2、ada3と認識されているので、フォーマットをすることも無く

zpool create vol1 raidz ada1 ada2 ada3

でプールを作成。この時点で2GBの領域を確保。

このプールは/vol1に自動的にマウントされているので、後はそこに好き勝手にファイルを置いたり、ディレクトリを作成したりすれば良いのですが、バックアップ戦略とかで更にプールを分けることもできる。

zfs create vol1/visual

Diskを追加してプールを拡張する

ZFSでは、一旦構築したRAIDアレイにHDDを追加することはできない仕組みになっている。
なので、追加のHDDはストライプ構成で追加される。
なので、RAID-Zでプールを作ったのなら、HDDを追加するときもRAID-Zで追加していかないと、冗長性を確保出来ないことに。

それを踏まえてvol1にHDDを追加してみます。
2GBのHDDを追加で3台つないだとして、

zpool add vol1 raidz ada4 ada5 ada6

ステータスを確認すると、

# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
vol1 8.95G 380K 8.95G 0% 1.00x ONLINE –

# zpool status
pool: vol1
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
-0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
-1 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0

vol1がストライプ構成になってると確認できる。

zpool listで表示されるのは、HDDの総量みたい。
1GB×3+2GB×3=9GB
実際に使えるサイズはdf -hかzfs listで確認できる(ログを残していないのです)。

これで、NASを構築する手順は確認出来ました。あとは、samba設定するくらいですね。

WD Red 3.5inch IntelliPower 3.0TB 64MBキャッシュ SATA3.0 WD30EFRX
Western Digital
売り上げランキング: 322

[linux/Debian] Debian/kfreebsdでZFS 準備編

はじめに

そのうちに、自宅ファイルサーバーをZFSを使った構成にしたいなと思っています。
主に耐故障性を向上させるためにです。

ZFSを使うには、
1.Solarisを使う
2.FreeBSDを使う
上記はZFSがシステムに組み込まれているので、そのまま使うことができます。
他に、
3.LinuxとZFS on LinuxのZFSを組み合わせて使う
と言う手段もあります。

色々考えた結果、FreeBSDで使うのが確実だろうという結論に達しました。

でも、FreeBSDはよく解らないので、Debian/kFreeBSDを使うことにしました。
カーネル部分はFreeBSDだけど、それ以外はDebianなので、Debian/GNU Linuxを使っている人には扱いやすい、らしい。

VirtualBoxにインストールして色々確認するのを目的としています。
ただ、OSインストールだけは空いてるマシンと使っていない80GBのSSDがあったので、それに入れて準備だけしました。

インストール

netinstなイメージを持ってきてインストールするのがいちばんラクでお手軽。
VirtualBoxでお試しインストール。
特に迷うところは無いのですが、日本語インストールにはまだ対応していないのね・・・。

インストール時には最低限必要なものだけ選択。ファイルサーバーだけ選べばOK。

おまけ。
実機ではUSBメモリからインストールする予定が、なんか解らないがUSBメモリからnetistなイメージがブートしない。
Debian GNU/LinuxのnetinstなISOイメージからはUSBブートできるのでUSB-CD ROMからインストール・・・。
が、USB-CD ROMからもインストール出来なかったので、内蔵CDROMドライブをつないでインストールしました。

インストール後の最低限必要な設定

インストール時にDHCPでIPアドレスを取得するようになってしまっているので、固定IPに変更。
設定はDebian GNU/Linuxと同じ。

# vi /etc/network/interface

auto lo0
iface lo0 inet loopback

# The primary network interface
auto re0
iface re0 inet static
address 192.168.xxx.yyy
netmask 255.255.255.0
gateway 192.168.xxx.zzz
dns-nameservers 192.168.xxx.zzz

aptをつかって、sshをインストール。

# apt-get install ssh

日本語ロケールの設定

# dpkg-reconfigure locales

でja_JP.UTF-8にチェック、デフォルトにして

# update-locale LANGUAGE=”ja_JP:ja” LANG=”ja_JP.UTF-8″

これで再起動させたら準備は完了

[linux/Debian] Linux Software RAID1のHDDが片方だけあるときにデータを読み出す方法

ちょっと調べてみたけれども、情報が少なかったのでメモを残しておきます。

LinuxでSoftwara RAID1を組んでいたとします。別にこれはRAID5でもかまいません。
で、片方のARRAIが壊れました。
あるいは、他のサーバーで運用していたRAIDアレイがあって、サーバーが壊れちゃった。デモデータを取り出したいとします。

その時、別マシンでどうやってデータを吸い出すか、と言う方法です。

調べてみたら新規にRAIDを組む方法の話はあっても、既存のRAID ARRAYを別マシンに移植するとか、そんな手順の情報が少ないんですよね。

で、以下の手順で行います。

1.RAIDの片割れのHDDをマシンにつなぎます。
2.つなげたHDDが/dev/sdbだったとして、RAIDを構成していたパーティションがsdb1だったとします。
3./dev/md0にRAIDが見えるようにします。
4.以下のコマンドを入力します

#> mdadm –assemble /dev/md0 /dev/sdb1

5./proc/mdstatを見て動いているのか確認

#> cat /proc/mdstat

6.適当なところにマウントしてデータを吸い出したりする。

自宅サーバーではRAID5を構築していないので確認はできなかったのですが、RAID5でも同じようにできると思います。


なんでこのような方法を調べていたのかというと、
自宅のファイルサーバーはRAID1で構成していて、なおかつ毎朝6時に別のHDDにデータをコピーする(rysncによるミラーリング)ことによって、ファイルの喪失を防ぐようにしています。
いちばん初めは、この3つのHDDは同じメーカーの同じ型番(仮にAA HDD)でした。

それが、まずは1台が壊れた(RAID1の片側)ので、ミラー用のHDDをRAIDアレイに持っていって、新しく買ったHDD(仮にBB HDD)をミラーリング用にしました。

すると、しばらくしたら、もう1台壊れました(RAID1の片側)。
この時点で代替HDDを手に入れようと思ったら、AA HDDは手に入るわけも無く。BB HDDは手に入る状態だったので、それを入手しました。

で、BB HDDでRAID1を組み直してAA HDDをミラーにしたいと思いました。
今の状況なら、新規にRAIDを作って、RAID状態のAA HDDからデータをコピーした後に、AA HDDのRAIDを解除してやればOKな訳ですが、
「これ、別マシンに移植するとかなったらどうやるんだ?昔、別マシンにつなげたときは勝手に認識したけど、毎回そんなわけじゃないし。」と思って調べたわけです。

ついでに書いておくと、LinuxのSoftware RAIDは異なるメーカの異なる型番のHDDでも関係なくRAIDを組めるのですが、RAIDを組むHDDのパーティションサイズは統一しておかないと色々と面倒くさそうです。

ちなみに、今回買ったのはSeagateのST2000DM001です。
以前買ったときには1万円近くの値段だったのですが、昨日の時点で、ツクモネット通販で7425円でした。
またHDDが安くなってきているのですかね?
今のところ、ファイルサーバーの構成は2TB/2.5TB/1TBの構成なのですが、1TBを引っこ抜いて3TBにしたいな~と思っています。
が、いつになったら実行できるか・・・

『デジタルガジェット』 Dell Venue Pro 8とUSB充電器、モバイルバッテリー

手持ちのUSB充電器、モバイルバッテリーとUSBケーブルの組み合わせで充電が出来るか確認しました。

USB充電器は、
・Dell Venue Pro 8付属のUSB充電器
Anker® 25W 5ポート USB急速充電器
・iPad付属のUSB充電器

モバイルバッテリーは
・docomo ポケットチャージャー01
・docomo ポケットチャージャー02
・Energzer XP8000

USBケーブルは、
・Dell Venue Pro 8付属のUSBケーブル
・Nexus5付属のケーブル
・kindle付属のケーブル
PLANEX Xperia 充電&データ転送 MicroUSBケーブルの通電側

以上で確認してみました。
単純に充電できる出来ないの確認だけじゃ無く、流れる電流の量も測定しました。

確認結果は、
sheet1
このようになりました。

Androidの充電器と普通(?)のUSBケーブルの組み合わせでは充電できるが、iPad/iPhoneの充電器と普通(?)のUSBケーブルとの組み合わせで充電できないことを考えると、何か仕様として定まった物でもあるんですかね?

もしかしたらモバイルバッテリーもiPhone/iPadのみに対応した物があった場合、充電できない場合がありそうですね。
モバイルバッテリーを新規に買おうとした場合、注意が必要かもしれません。

USB 簡易電圧・電流チェッカー (3.4V~7.0V,0A~3A) RT-USBVA1
ルートアール
売り上げランキング: 348

『PC関連』 Windows8.1で無線LANのアクセスポイントを削除する方法

Dell Venue 8 Proの無線LANは5GHzに対応しています。
自宅の無線LANは5GHzのアクセスポイント対応です。
マンション住まいなので、2.4GHz帯はあちこちから電波が飛んできて混線が酷いので5GHzのAPに優先的に接続して欲しいです。

ところが、別のNotePCでの設定がマイクロソフトアカウント経由で同期されたため、5GHzのAPでは無く2.4GHzのAPに接続してしまうことが頻発しています。
それならば、2.4GHzのAPの設定を削除したら良いのですが、その方法がぱっと見解りません。
Google先生に聞いたところ、コマンドプロンプトでコマンドを打ち込んでやる必要があると。
誰がこんなUIにしたんだと問い詰めたい。

その方法ですが、MIYAさんの電子出版への道 【Windows8.1】なぜかできなくなった無線LANの設定(プロファイル)を消す方法に詳しく書いてました。
こちらのリンクを参照してください。

こんな設定をするときにはフルキーボードが欲しくなりますね。