vCSA(VMware vCenter Server Appliance) 5.5 のインストールではまった所のメモ

家でvCenterServerの検証がしたいので、適当にvmware-playerでESXiを構築して、SUSEベースのLINUX版vCSAを構築しました。

その時にはまったポイントのメモ。

■事象
・普通にインストールしたら、embedded DBの初期設定でエラーがでる
・タイムゾーンがUTCのままで変えようとしてもコンソールから設定変更できない

■原因
DBが初期化できないのはTimeZoneがUTCのままだったから。
そもそもVMの時間が同期できていなかったから。

■対応
・直接vCSAにroot/vmwareでログインしてタイムゾーンをUTCからJSTに変更
・192.168.XXX.XXX:5480 でWebUIから初期設定を実施
・あれ、同期できないと思ったらvmware-toolsのESXとの時刻同期設定が入って無かった
・あれ、それでも同期できないと思ったら、ESXiのNTPの設定が止まっていたのでNICTのNTPを参照させてNTPを再起動
・もう一度OVAのデプロイからやり直して、無事にembedded DBの初期設定ができた

■タイムゾーンが変更できない時
下は既にJSTに変更された後ですが、TimeZoneでenter押しても反応しない。
vcsa
直接ログインしてタイムゾーンを設定しました。

/usr/share/zoneinfo/Asia/Tokyo があることを確認
vi /etc/sysconfig/clock にて最終行を以下に変更。
~~~
 TIMEZONE="Asia/Tokyo"
 DEFAULT_TIMEZONE="Asia/Tokyo"
~~~
cp /usr/share/zoneinfo/Asia/Tokyo /etc/localtime

成功しましたね。

vcsa1

—-
手順は以下のサイトを参考にしました。

VMware vCenter Server Appliance 5.5 のインストールと VMware vSphere Web Client によるアクセス / vSphere 5.5 (ESXi 5.5)

■vCSA ( vCenter Server Applicance 5.5 )のインストール

vCSA(vCenter Server Appliance)5.1導入まとめ

vCenter Appliance could not configure embedded DB – Wrong Time Oops !!

Adjusting ESX host Time Zone (1436)

niftycloudAPIで停止と削除

作業のメモです。

niftycloudのAPIで大量にサーバーコピーでVMを作ったけど、消すのが大変ということで。
APIのインストールや使用例は以下のURLを参照してください。

■ニフティクラウドのCLIツール( http://cloud.nifty.com/api/cli/ )を自動セットアップするスクリプトと使用例
ysaotome / niftycloud-api-tools-installer.sh

こんな感じで環境変数を入れて、

export NIFTY_CLOUD_URL=エンドポイント
export NIFTY_ACCESS_KEY_ID=AccessKey
export NIFTY_SECRET_KEY=SecretAccessKey

■APIのエンドポイントは以下を参考にしてください。
http://cloud.nifty.com/api/endpoint.htm
http://cloud.nifty.com/help/status/api_key.htm

そして、以下の手順でAPIを実行。
※コマンドのパスは人によって変わります、もちろん環境変数に読み込ませたほうが楽です。
 

■停止する

/root/NIFTY_Cloud_api-tools/bin/nifty-stop-instances VM名

■APIから削除可能な状態にする

/root/NIFTY_Cloud_api-tools/bin/nifty-modify-instance-attribute --disable-api-termination false VM名

■削除する

/root/NIFTY_Cloud_api-tools/bin/nifty-terminate-instances VM名

APIから削除可能な状態にするというのは、VM単位で設定するものです。
サーバーコピーで作成するときにVM名が連番になるように作成されるので、
大量削除のときにスクリプト組みやすいです。

ストレージ仮想化・ファイルシステム技術メモ

今週タイトルの件でググったもののメモの貼り付け。
2014年5月時点

■性能/機能 比較

Ceph、Sheepdog、GlusterFS、XtreemFSの性能比較が載っています。
- 仮想化環境における分散ストレージ選択指標
http://www.iij-ii.co.jp/techweek/2012_01.html

OpenStackのドキュメントで、OpenStackに適用可能な各種ストレージソフトウェアへの選定について、
体系的に書いています。
- 第5章 ストレージ選定
http://dream.daynight.jp/openstack/openstack-ops/content/storage_decision.html

■オブジェクトストレージ

・Ceph

Cephの概要と検証環境の構築方法が書いてあり分かりやすいです。
- Ceph ~ブロックアクセス可能な分散ストレージ
http://bird-blog.bit-isle.co.jp/2014/03/ceph.html

IBMさんのCephの説明記事です。詳細なアーキテクチャが説明されています。
- Ceph: Linux のペタバイト規模の分散ファイルシステム
http://www.ibm.com/developerworks/jp/linux/library/l-ceph/

・OpenStack Swift
ブロックストレージは提供できない。

基本的な技術の紹介とさくらの専用サーバーでSwiftを組む記事などがあります。
- OpenStack Swiftを使ってクラウドストレージサービスを構築する
http://knowledge.sakura.ad.jp/tech/226/

Swinftのアーキテクチャと、Openstack内での位置づけなど。
- OpenStackの大容量ストレージサービス、Swiftの仕組み
http://techtarget.itmedia.co.jp/tt/news/1108/05/news01.html

・GlusterFS
ファイルレベルのストレージとして提供可能。

他の比較も簡単にまとめられていました。
- glusterfsでクラスタfsを作る
http://www.insaneworks.co.jp/kota/glusterfs%E3%81%A7%E3%82%AF%E3%83%A9%E3%82%B9%E3%82%BFfs%E3%82%92%E4%BD%9C%E3%82%8B

Cephは管理ノードみたいなのが落ちるとダメらしいけど、
Glusterはマスターみたいなのが居ないからどれか落ちても大丈夫?
- 分散ファイルシステム GlusterFS を使う上で知っておきたい 5つのこと
http://infra.makeall.net/archives/2093

・Sheepdog
KVM用の分散ストレージ。
ブロックレベルで提供可能。

Sheepdogの簡単な概要など。
- Sheepdog/概要
http://eucalyptus.linux4u.jp/wiki/index.php?Sheepdog%2F%E6%A6%82%E8%A6%81
- NTT研究開発この一年 2011年報 | 仮想化環境のためのクラスタストレージ技術「Sheepdog」
http://www.ntt.co.jp/RD/OFIS/active/2011pdf/hot/pf/01.html

■その他、ストレージ仮想化ソフトウェア

publickeyに掲載された、SDSの体系などをVMwareの人が説明した記事
- Software-Defined Storage、これからのストレージ技術が実現する世界とはどのようなものか?
http://www.publickey1.jp/blog/14/software-defined_storage.html

EMCのViPR2.0の記事。
2.0からコモディティハードウェアやブロックストレージに対応した。
- 変わるストレージの巨人EMC、戦略の中心にソフトウェア。ViPRによるSoftware-Defiend Storageを強化。EMC World 2014
http://www.publickey1.jp/blog/14/emcviprsoftware-defiend_storageemc_world_2014.html

・VSAN
分散スケールアウト型の共有ストレージ。
vSphereでしか動かない

supermicroのvSANの概要説明。
- VMware vSANで実現する仮想基盤
http://www.supermicro.jp/library/vmware-vsan.html

EMCがScaleIO ECSを買収した頃の記事、VSANとViPRの位置づけなど。
- ヴイエムウェアがストレージ仮想化製品
http://itpro.nikkeibp.co.jp/article/COLUMN/20130910/503797/

GNS3でCisco IOSをシミュレートする

色々仕事でNWの言葉が分からなかったり、実際に自分で触ってみないとブラックボックスな所があるので、
CiscoのSWのシミュレータを自宅のWindows7に入れました。

以下のサイトがNW全般について全て書かれてるので私は淡々とリンクと自分の環境の補足だけ書きます。

GNS 3 – Graphical Network Simulator ネットワークエンジニアとして

これに沿って入れていけば完成でした。
以下の件だけ、メモ。

・TeraTermを入れているので使う端末はそれを指定おけばいい。
・IOSのイメージは自力で用意する(ヤフオクとかで安くCiscoのSWを手に入れて吸いだしてくる)。(c3725-advipservicesk9-mz.124-15.T14.bin と表記されているもの)
・default RAMを128MiBにしたら二台立ちあげたらメモリが全部食いつぶされた。
 →64MiBにしたら戻った。

以下のような操作をして、2台作ったR1とR2のポートを接続できたのを確認できるところまで今しました。

R1#conf terminal
Enter configuration commands, one per line.  End with CNTL/Z.
R1(config)#conf int
R1(config)#int fast
R1(config)#int fastEthernet 0/0
R1(config-if)#no shut
R1(config-if)#exit
R1(config)#exit
R1#
*Mar  1 00:02:06.495: %SYS-5-CONFIG_I: Configured from console by console
R1#sh cdp neigh
Capability Codes: R - Router, T - Trans Bridge, B - Source Route Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater

Device ID        Local Intrfce     Holdtme    Capability  Platform  Port ID
R2               Fas 0/0            138        R S I      2621      Fas 0/0

手順を追っただけなので、一部出力を省いてます。

クラウドエンジニアとはストレージとサーバーとNWの基礎を分かった人が初めて語れる肩書きの様な気がします。
これまで、無知なまま生きてきたのが恥ずかしい

参考:
UnixPower on Networking
Cisco IOS Collection (originally Internetwork Operating System)

vdbenchのパラメーター

前回の記事の続きです。
とりあえず今のところ分かったことをメモリます。

実行するコマンドは以下のような感じです。

[root@CentOS01 vdbench]# ./vdbench -f myconf.txt -o /var/www/html/output/result+

-f はvdbenchのパラメーターを指定します。
-o は結果を出力します。

httpdをインストールして、今回の環境ではポート転送とファイアウォールで80番ポートを空けておけば、
Webブラウザから確認できて便利です。
「http://URL/output/result010/summary.html」な感じで入力すれば、実行結果が確認できます。

次に myconf.txtの中身を見ます。

sd=sd1,lun=/add_disk1/disk.bin,size=1g
wd=wd1,sd=sd1,xfersize=4k,rdpct=100,seekpct=0,whpct=0
rd=run1,wd=wd1,iorate=max,elapsed=10,interval=1

1行目:
sdはディスクの定義をします。
lunは計測したいディスク配下に適当なファイルを作ってそれを指定します。
sizeは適当なファイルのサイズを設定します。
上記の場合はdisk.binという適当なファイルがテストの実行後に1GBになります。
当然、ファイルサイズより空き容量があるディレクトリでないとまずいので気を付けてください。

2行目:
wdはワークロードの定義をします。
xfersizeはIOの大きさです。この場合は4kのIOを吐きます。
rdpctはリード割合です。この場合はリード100%です。
「読み込み20%書き込み80%」みたいな場合は、rdpct=20にすればいいです。
seekpctはシーケンシャルの割合です。今回の場合はシーケンシャル100%です。
「100%ランダムアクセス」見たいな場合は、seekpct=100にすれば良いです。
whpctはライトのキャッシュヒット率です。
rhpctはリードのキャッシュヒット率です、今回の例では使ってないオプションです。

3行目:
rdは実行の定義をします。
iorateは1秒間のIO数を定義します。maxにすると限界までIOします。
elapsedはテストの実行時間。
intervalはレポートの間隔です。←まだ、あまり意味を理解できてない。

実行結果:
こんな感じでhtmlに吐かれました。

<pre>
Vdbench summary report:

Link to logfile:                 <A HREF="logfile.html">logfile</A>
Copy of input parameter files:   <A HREF="parmfile.html">parmfile</A>
Copy of parameter scan detail:   <A HREF="parmscan.html">parmscan</A>
Link to errorlog:                <A HREF="errorlog.html">errorlog</A>
Link to flatfile:                <A HREF="flatfile.html">flatfile</A>

Link to HOST reports:            <A HREF="localhost.html">localhost</A>
Link to SD reports:              <A HREF="sd1.html">sd1</A>     

Link to Run Definitions:         <A HREF="#_1814286763">run1 For loops: None</A>


<a name="_1814286763"></a><i><b>18:23:01.002 Starting RD=run1; I/O rate: Uncontrolled MAX; elapsed=10; For loops: None</b></i>


Mar 02, 2014  interval        i/o   MB/sec   bytes   read     resp     resp     resp    cpu%  cpu%
                             rate  1024**2     i/o    pct     time      max   stddev sys+usr   sys
18:23:02.558         1   20255.00    79.12    4096 100.00    0.041  756.158    5.313    57.6  17.0
18:23:03.127         2   33070.00   129.18    4096 100.00    0.024  120.673    1.205   100.0  35.7
18:23:05.091         3  145613.00   568.80    4096 100.00    0.050 1191.339    3.625   100.0  75.6
18:23:05.824         4   60573.00   236.61    4096 100.00    0.084 1164.712    6.938   100.0  78.1
18:23:06.147         5   21204.00    82.83    4096 100.00    0.068  556.047    4.226   100.0  75.0
18:23:07.176         6   68696.00   268.34    4096 100.00    0.052  153.032    2.161   100.0  68.3
18:23:08.863         7  140484.00   548.77    4096 100.00    0.082 1169.200    7.273   100.0  80.6
18:23:09.138         8   16689.00    65.19    4096 100.00    0.022  103.362    0.911   100.0  77.8
18:23:10.082         9   80044.00   312.67    4096 100.00    0.079 1019.691    5.772   100.0  77.5
18:23:12.622        10  101881.00   397.97    4096 100.00    0.043  844.554    3.260   100.0  80.4
18:23:12.750  avg_2-10   74250.44   290.04    4096 100.00    0.061 1191.339    5.010   100.0  72.4
18:23:12.752 *
18:23:12.752 host=localhost
18:23:12.752 * Warning: average processor utilization 100.00% 
18:23:12.752 * Any processor utilization over 80% could mean that your system
18:23:12.752 * does not have enough cycles to run the highest rate possible 
18:23:12.752 *
18:23:13.780 Vdbench execution completed successfully

以下はIO 4k ランダムアクセス、ライト8割の結果。

<pre>
Vdbench summary report:

Link to logfile:                 <A HREF="logfile.html">logfile</A>
Copy of input parameter files:   <A HREF="parmfile.html">parmfile</A>
Copy of parameter scan detail:   <A HREF="parmscan.html">parmscan</A>
Link to errorlog:                <A HREF="errorlog.html">errorlog</A>
Link to flatfile:                <A HREF="flatfile.html">flatfile</A>

Link to HOST reports:            <A HREF="localhost.html">localhost</A>
Link to SD reports:              <A HREF="sd1.html">sd1</A>     

Link to workload report:         <A HREF="File_format_or_append_for_sd=sd1.html">File_format_or_append_for_sd=sd1</A>
Link to workload report:         <A HREF="wd1.html">wd1</A>

Link to Run Definitions:         <A HREF="#_867908838">File_format_or_append_for_sd= For loops: threads=2.0 iorate=5000</A>
                                 <A HREF="#_1234909842">run1 For loops: None</A>


<a name="_867908838"></a><i><b>18:06:10.002 Starting RD=File_format_or_append_for_sd=; I/O rate: 5000; elapsed=(none); For loops: threads=2.0 iorate=5000</b></i>


Mar 02, 2014  interval        i/o   MB/sec   bytes   read     resp     resp     resp    cpu%  cpu%
                             rate  1024**2     i/o    pct     time      max   stddev sys+usr   sys
18:06:11.395         1    6018.00   376.12   65536   0.00    0.316  107.480    4.369    56.0  26.9
18:06:12.055         2    2187.00   136.69   65536   0.00    0.816  264.048    9.360    37.9  28.8
18:06:13.060         3    2131.00   133.19   65536   0.00    0.912  186.380    8.676    62.9  27.4
18:06:14.060         4    3085.00   192.81   65536   0.00    0.619  136.627    5.213    28.3  23.9
18:06:15.080         5    2962.00   185.12   65536   0.00    0.588   98.939    4.572    29.0  24.7
18:06:15.188   avg_2-5    2591.25   161.95   65536   0.00    0.712  264.048    6.930    37.4  25.9

<a name="_1234909842"></a><i><b>18:06:16.000 Starting RD=run1; I/O rate: Uncontrolled MAX; elapsed=10; For loops: None</b></i>


Mar 02, 2014  interval        i/o   MB/sec   bytes   read     resp     resp     resp    cpu%  cpu%
                             rate  1024**2     i/o    pct     time      max   stddev sys+usr   sys
18:06:17.468         1   65078.00   254.21    4096  19.92    0.136  691.957    4.085    62.2  42.7
18:06:18.115         2   25220.00    98.52    4096  19.73    0.200  872.186    6.750    92.9  75.0
18:06:19.511         3   31839.00   124.37    4096  19.98    0.320  732.940    7.369   100.0  56.9
18:06:20.104         4   18595.00    72.64    4096  19.73    0.219  574.614    5.960   100.0  62.5
18:06:21.049         5   26367.00   103.00    4096  19.98    0.271  172.195    4.617    44.8  34.3
18:06:22.071         6   24416.00    95.38    4096  20.04    0.335  373.128    8.328    26.8  22.0
18:06:23.052         7   36774.00   143.65    4096  19.61    0.173  167.013    4.027    53.3  43.3
18:06:24.071         8   19346.00    75.57    4096  20.63    0.395  316.867    8.186    50.0  33.3
18:06:25.075         9    8942.00    34.93    4096  19.85    0.952  535.144   18.829   100.0  25.0
18:06:26.048        10   22933.00    89.58    4096  19.64    0.331  206.172    6.489    25.6  19.5
18:06:26.052  avg_2-10   23825.78    93.07    4096  19.89    0.302  872.186    7.427    56.7  36.2
18:06:26.676 Vdbench execution completed successfully

今回の結果はGMOパブリックβ版の追加ストレージを10GBマウントして実施しました。
もうちょっと色々実験してみたいところですが、ここまでで。

参考:
vdbench でディスクの性能を測定する
https://blogs.oracle.com/yappri/entry/vdbench
vdbenchの使い方
http://www.ginnokagi.com/2013/10/vdbench.html

GMOクラウドPublic 次期サービスβ版が使えるようになったので少し負荷をかけた

GMOクラウドPublicが次期サービスのβ版を提供しているので申し込んでみました。
個人名義で最初のアンケートも「検証するだけ」という項目しか選ばなかったので、
外れるかなと思ったんですがまだ受け付けてもらえました。

GMOクラウドPublic 次期サービスβ版

アカウントを確認したら早速サポートページを見ながら操作開始。
cloudstack系のクラウドサービスを触ったことがある人には直観的に操作が出来ると思います。。
GMOクラウド Public 次期サービスβ版 サポート

通常仮想サーバー作成しただけでは外部から通信が出来ないので仮想ルーターを作って、
FWでsshを許可して、ポート転送でアクセスします。

CentOSのrootのパスワードが作成完了時にポップアップで出てくるのでそれで接続。

とりあえず、CPUを確認しました。
E5-2690です。

[root@CentOS01 ~]# cat /proc/cpuinfo
processor       : 0
vendor_id       : GenuineIntel
cpu family      : 6
model           : 45
model name      : Intel(R) Xeon(R) CPU E5-2690 0 @ 2.90GHz
stepping        : 7
cpu MHz         : 2900.054
cache size      : 20480 KB
physical id     : 1
siblings        : 1
core id         : 5
cpu cores       : 1
apicid          : 43
initial apicid  : 43
fpu             : yes
fpu_exception   : yes
cpuid level     : 13
wp              : yes
flags           : fpu de tsc msr pae cx8 sep cmov pat clflush mmx fxsr sse sse2 ss ht syscall nx lm up rep_good aperfmperf unfair_spinlock pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes hypervisor lahf_lm arat epb pln pts dts
bogomips        : 5800.10
clflush size    : 64
cache_alignment : 64
address sizes   : 46 bits physical, 48 bits virtual
power management:

LinuxOSのrootディスク(OS領域)は初回作成時に自分で好きな要領に選べるのが良いです。
今回は30GBにしました。後から拡張はできないようです。
WindowsServer2012は100GB固定とかのようです。
β版ではWindowsOSは使えません。

rootディスクにdbenchを掛けてみました。
忘れないように入れたパッケージもメモで残します。

# yum update
# yum install popt-devel
# yum install automake
# yum install gcc
# wget http://samba.org/ftp/tridge/dbench/dbench-4.0.tar.gz
# tar zxvf dbench-4.0.tar.gz
# cd dbench-4.0
# ./autogen.sh
# ./configure
# make
# make install
# dbench 5
 Operation      Count    AvgLat    MaxLat
 ----------------------------------------
 NTCreateX    2155370     0.191   157.045
 Close        1583170     0.011   140.268
 Rename         91261     0.326   114.055
 Unlink        435317     0.673   172.906
 Deltree           50    23.933   189.022
 Mkdir             25     0.005     0.007
 Qpathinfo    1953685     0.080   240.632
 Qfileinfo     342205     0.008    96.666
 Qfsinfo       358183     0.014    94.849
 Sfileinfo     175543     0.231   110.023
 Find          755258     0.099   119.777
 WriteX       1073720     0.247   255.182
 ReadX        3378491     0.033   251.213
 LockX           7018     0.014    61.706
 UnlockX         7018     0.012    60.751
 Flush         151044     9.296   144.304

Throughput 112.726 MB/sec  5 clients  5 procs  max_latency=255.187 ms

次は以下の記事を読みvdbenchも試してみたいと思ってインストール。

やっぱり Sun がスキ! vdbench でディスクの性能を測定する

# wget http://sourceforge.net/projects/vdbench/files/vdbench502.zip
# yum install unzip
# yum install csh
# mkdir /var/tmp/vdbench
# cp vdbench501.zip /var/tmp/vdbench
# cd /var/tmp/vdbench
# unzip vdbench501.zip

テスト実行

[root@CentOS01 vdbench]# ./vdbench -t


Vdbench distribution: vdbench502
For documentation, see 'vdbench.pdf'.

01:10:03.805 input argument scanned: '-f/tmp/parmfile'
01:10:04.089 Starting slave: /root/vdbench/vdbench SlaveJvm -m localhost -n localhost-10-140215-01.10.03.626 -l localhost-0 -p 5570
01:10:04.828 All slaves are now connected
01:10:07.002 Starting RD=rd1; I/O rate: 100; elapsed=5; For loops: None

Feb 15, 2014  interval        i/o   MB/sec   bytes   read     resp     resp     resp    cpu%  cpu%
                             rate  1024**2     i/o    pct     time      max   stddev sys+usr   sys
01:10:08.060         1     109.00     0.11    1024  52.29    0.012    0.213    0.020    25.4   7.6
01:10:09.060         2      99.00     0.10    1024  52.53    0.010    0.029    0.005     9.4   3.5
01:10:10.050         3     110.00     0.11    1024  52.73    0.009    0.034    0.005     2.3   0.0
01:10:11.052         4     102.00     0.10    1024  50.00    0.011    0.043    0.007     2.2   1.1
01:10:12.072         5      98.00     0.10    1024  48.98    0.010    0.031    0.005     1.1   0.0
01:10:12.101   avg_2-5     102.25     0.10    1024  51.10    0.010    0.043    0.005     3.7   1.1
01:10:12.809 Vdbench execution completed successfully. Output directory: /root/vdbench/output

色々パラメータがいじれるので実験したいのですが眠いので寝ます。
他にもデータディスクの性能とか色々いじってみたいですがまた今度で。

vCenterServerのイベントをざっくり取る

夜中の3時くらいに「vCenterのイベント、今の分だけCSV形式で取ろうかなー」ということが良くあるのでメモ。

Get-VIEventをexportするだけですが、日本語でイベントが出力されて、
CSVにexportすると文字化けするのでlocaleを英語に変えます。

ex.)
getevent.ps1 2014/01/18 2014/01/19

param($start_day, $finish_day)

function main {
	GetEVENT
}

function GetEVENT {
	$path = "C:\hoge\vm_event.csv"
	Get-VIEvent -Start $start_day -Finish $finish_day | Export-Csv $path
}

function ChangeLocale {
	$SI = Get-View ServiceInstance
	$SessMgr = Get-View $SI.Content.SessionManager
	$SessMgr.DefaultLocale
	$SessMgr.SupportedLocaleList
	$SessMgr.SetLocale("en")
}
ChangeLocale
main $start_day, $finish_day

参考
Exporting vCenter Events with PowerCLI
How to force a specific locale when managing vSphere

追記(2014/2/2)
Get-VIEvent に MaxSamplesのパラメーターを指定しないと、日付を入れてもデフォルト値の100しか取れません。
たぶん、大きい環境ですと1時間くらいしか残せないので、10000とか指定してしまえばいいと思います。
詳細はGet-VIEVENTのリファレンスを見てください。

vSphere PowerCLI Reference Get-VIEvent

あの日見たUSBの消費電力を僕たちはまだ知らない。

なんでも、USBと変換アダプタがあればHDDを接続できると思っておりました。

ユニバーサル・シリアル・バス

給電能力が5Vとした場合、
USB2.0で500mA、USB3.0で900mAですので、
USB3.0でも4.5W ?

一般的なHDDの消費電力は2.5インチのものでも5Wで、
3.5インチだとアイドル時でも10Wはするそうです。

全然足りません。

外付けHDDをコンセントを使わずに使用する方法
あなたは、3.5インチHDDを動かすためだけにそれよりも何倍も重い自動車用等の鉛蓄電池を持ち歩きたいと思いますか?

すいませんでした。

USBのマークを貼りたいと思いましたが、ベンダーIDと込みで2年間で2000ドルだそうです。

USBベンダーID,ロゴマークの取得

WindowsServer2012関連リンク[メモ]

WindowsServerはLinuxよりも良く分かりません…。

リリースされたばっかりで話題のWindowsServer2012は何ができるか個人的なメモです。

特に仮想化環境との絡みや、Hyper-Vなどを中心に。

WindowsServer2012

Windows Server 2012の概要 - @IT 

↑概要は上記がよくまとまっています。

 

私の環境はvmwareを使っているのですが、対応はESXi4.xでは動かず、5.0u1以降とのこと。

以下の記事を参考に自分もやってみよう。

VMware ESX環境でWindows 8とWindows Server 2012を動かすには?
[ESXi] Windows 7 on Hyper-V(WS2012) on ESXi 5.1 成功
[メモ][VMware] ESXi 5.0 update 1にWindows Server 2012 RCをインストールする方