<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>QNAP  |  fefcc.net</title>
	<atom:link href="https://fefcc.net/archives/category/pc/server/qnap/feed" rel="self" type="application/rss+xml" />
	<link>https://fefcc.net</link>
	<description>ただの備忘録</description>
	<lastBuildDate>Wed, 08 Jan 2020 13:02:19 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.2.2</generator>
	<item>
		<title>APC SMT500JにQNAP TS-873を接続</title>
		<link>https://fefcc.net/archives/1004</link>
					<comments>https://fefcc.net/archives/1004#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Wed, 08 Jan 2020 13:02:19 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=1004</guid>

					<description><![CDATA[APC SMT500JにQNAP TS-873を接続した記録 最初に APC SMT500JにWindowsServerとQNAP NASを2台同時接続できる記事を紹介しましたが 今回はQNAP NAS TS-873のみ [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>APC SMT500JにQNAP TS-873を接続した記録<span id="more-1004"></span></p>
<h2>最初に</h2>
<p>APC SMT500JにWindowsServerとQNAP NASを2台同時接続できる記事を紹介しましたが<br />
今回はQNAP NAS TS-873のみを接続した状態でどの程度の負荷になるかを紹介します</p>
<h3>APC SMT500J</h3>
<p>APC Smart-UPS 500 LCD 100V SMT500J<br />
500VAモデル</p>
<p>QNAP NASとの接続は汎用のUSBタイプBとUSBタイプAの変換ケーブルを使用</p>
<h3>QNAP TS-873</h3>
<p>メモリは16GBx4枚で64GB化済<br />
HDDはWD Blueの5400rpm 4TBを8台フルに搭載<br />
QTSバージョンは4.4.1.1146<br />
LANは4本GbE接続</p>
<p>以前紹介した消費電力記事では7200rpm物のHDDを使用していたので<br />
今回使用しているHDDとは異なります</p>
<p>ファイル転送などはせずアイドル状態での負荷になります</p>
<h2>UPS上での表示</h2>
<p>UPS本体にある液晶画面でのLoad値は15～18%を推移</p>
<h2>QNAP上での表示</h2>
<p>QTSのコントロールパネル内にあるシステム -&gt; 外部デバイス -&gt; UPS<br />
<a href="https://fefcc.net/files/2020/01/08/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2020/01/08/01.jpg" width="1040" height="849" /></a></p>
<p>今回の環境では推定保護時間は1時間16分でした</p>
<h2>最後に</h2>
<p>推定保護時間は実際の負荷から計算される為<br />
使用しているHDDやバックグラウンド処理で数値が変化しますし<br />
アイドル状態で1時間16分なだけで少しでも負荷があれば当然1時間16分も持ちません</p>
<p>よって各環境ごとにNASをセットアップしてからLoad値と推定保護時間を確認後<br />
シャットダウンまでの時間を設定することになります</p>
<p>UPSへの電源供給がなくなった場合はQNAP NASへも通知されるので<br />
QTS上にある通知センターでメール通知などを設定していれば通知を受信できます<br />
（当然ながらハブやルータなどメールサーバまでの経路が停電せずに動作している前提です）</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">NAS 名: NAS
重大度: Warning
日付/時刻: 2020/01/01 12:01:02

アプリ名: 外部デバイス
カテゴリー: UPS
メッセージ: [外部デバイス] UPS の電力損失を検出しました。5 分後にNASをシャットダウンします。</pre>
<p>メールはこんな感じです</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/1004/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QNAP NASの暗号化とスナップショットの関係</title>
		<link>https://fefcc.net/archives/983</link>
					<comments>https://fefcc.net/archives/983#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Sun, 17 Nov 2019 14:37:04 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=983</guid>

					<description><![CDATA[QNAP NASの暗号化とスナップショットの関係について 最初に 検証に使用したQTSは4.4.1.1117です 今回は以下の条件下で発生する面倒な仕様を紹介 ・暗号化ボリュームを使っている ・暗号化キーをNAS本体に保 [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>QNAP NASの暗号化とスナップショットの関係について<span id="more-983"></span></p>
<h2>最初に</h2>
<p>検証に使用したQTSは4.4.1.1117です</p>
<p>今回は以下の条件下で発生する面倒な仕様を紹介<br />
・暗号化ボリュームを使っている<br />
・暗号化キーをNAS本体に保存しない<br />
・スナップショット機能を使用</p>
<p>今回のネタはどちらかというと複数人利用を想定した話です</p>
<h2>暗号化ボリュームについて</h2>
<p>QNAPの場合、暗号化ボリュームにアクセスする場合に使う暗号化キーの運用は<br />
暗号化キーをNAS本体に保存するか<br />
起動毎に手動で暗号化パスワードか暗号化キーファイルを使ってロック解除の3択</p>
<h3>NAS本体に保存</h3>
<p>NAS本体に保存すると暗号化処理コスト以外は通常ボリュームと変わりなく<br />
NAS起動時のロック解除を自動で処理してくれたり<br />
今回の記事ネタであるスナップショット運用でも影響がなく簡単で便利だが<br />
肝心のデータ保護についてはそのまま運用してしまうと<br />
盗む目的がデータであろうと金目のものであろうとNAS丸ごと盗むのが正解なのに<br />
わざわざNAS本体は盗らず、ご丁寧にHDDだけ盗まれるという<br />
レアケースでしかデータを守ることができない</p>
<p>NAS本体を盗んでも管理者ユーザのパスワードもわからないからログインできないし<br />
DHCPじゃないしSMBのゲストアクセスを無効にしているから大丈夫と思いきや<br />
QNAPの背面にはコンフィギュレーションリセットスイッチ（リセットスイッチ）があって<br />
このリセットスイッチを使って基本システムのリセット（3秒押し）をすれば<br />
adminパスワードとネットワーク設定がリセットされる機能がある<br />
もちろんこの3秒リセットは保存データには影響しないし<br />
adminユーザを無効にしていても有効になる</p>
<p>他社のNASならこのリセット機能が働くと保存された暗号化キーも無効にされて<br />
再度手動で暗号化キーの入力をしないとロック解除できずデータは守られるが<br />
なぜかQNAPは本体に保存した暗号化キーは削除されずに残っており<br />
パスワードがリセットされたadminでログインすれば<br />
暗号化ボリュームも自動でロック解除されている状態となる<br />
（QTS 4.4.1.1117で個人的にも試して確認済）</p>
<p>この問題はたまにフォーラムで指摘されてはいるものの未だ放置されているのが現状</p>
<p>というわけでどうしても暗号化キーを保存したいけどデータ保護したいという場合は<br />
「コンフィギュレーションリセットスイッチ無効」の設定が必須となる<br />
ただ何か問題が発生した場合でも当然リセットスイッチは使えないので<br />
デメリットも理解した上で設定する必要がある</p>
<h3>暗号化パスワード</h3>
<p>暗号化パスワードはボリューム作成時に入力した文字列で暗号化キーそのもの<br />
暗記して手動入力が最強ではあるが<br />
長期的な運用と暗号強度を考慮した桁数だとなかなか現実的には難しい<br />
txtからコピペするぐらいならキーファイルで済む話なので<br />
現実的にはこれで運用するメリットは少ない</p>
<h3>暗号化キーファイル</h3>
<p>QNAPで暗号化ボリュームをまともに運用しようと思うとこれしかないのが<br />
暗号化キーファイルでの運用でボリューム作成後にダウンロードできるようになっている<br />
キーファイル自体はkey拡張子で中身は512桁の文字列で構成されたテキストファイル<br />
決して暗号化パスワードが裸で保存された単純なテキストファイルというわけではない<br />
デメリットはファイルの保管場所</p>
<p>今回は一番多いであろう暗号化キーファイルでの運用を前提に説明してますが<br />
どの方法にしろ一度暗号化キーを使ってマウントすれば<br />
再度ボリュームロックするかNASを再起動するまでは<br />
Windows共有などでも読み書きが可能で<br />
通常ボリュームと同様の扱いになると思いがちですがスナップショット周りだけは違います</p>
<h2>スナップショットマネージャーの動作</h2>
<p>改めて書いておきますがこれは暗号化キーをNAS本体に保存している場合は<br />
保存された暗号化キーを使って自動で処理されますのでこの状態にはなりません</p>
<p>では本題ですが暗号化ボリュームを暗号化キーファイルでロック解除して<br />
ボリュームが「準備完了」のステータスの状態になった状態で<br />
スナップショットマネージャーを開くとどうなるのか？<br />
それがこちらです<br />
<a href="https://fefcc.net/files/2019/11/17/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/17/01.jpg" width="1070" height="635" /></a></p>
<p>左上でボリューム自体は「準備完了」になっていてロック解除済なのが確認できますが<br />
スナップショットデータは別途ロック解除が必要になります</p>
<p>「ロック解除&gt;&gt;」というリンクを選択すると<br />
ボリュームをロック解除する時と同じような画面が出ます<br />
<a href="https://fefcc.net/files/2019/11/17/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/17/02.jpg" width="680" height="280" /></a></p>
<p>暗号化キーファイルの場合はこちら<br />
<a href="https://fefcc.net/files/2019/11/17/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/17/03.jpg" width="675" height="270" /></a></p>
<p>暗号化キーの保存はボリュームと同様にNAS本体に保存するオプションです</p>
<p>日本語サイズに入力フォームが合ってないのか文字が被ってますが<br />
「すべてのスナップショットのロック解除」というオプションがあり<br />
これを選択しない場合は各スナップショットデータごとにロック解除が必要になります</p>
<p>ここで気になるのは「すべてのスナップショットのロック解除」というオプションを使って<br />
これを起動後に1回しておけばボリュームのロック解除と同様に<br />
全スナップショットデータがロック解除されるのではないか？という疑問ですが答えは<br />
ロック解除以前に撮られたスナップショットは全て解除されるが<br />
ロック解除以後に撮られたスナップショットはロックされたままになります<br />
つまり最近のスナップショットを使いたければロック解除の操作が必須なのです</p>
<p>暗号化キーファイルを使用した時点に存在するデータは全てロック解除されるという仕様は<br />
NASを再起動した後の暗号化ボリュームのロック解除でも同様の処理になっていて<br />
先ほどの１枚目の画像でロック状態になっている18時21分のスナップショットも<br />
再起動後に暗号化ボリュームを暗号化キーファイルを使用してロック解除すると<br />
自動で見えるようになっています<br />
<a href="https://fefcc.net/files/2019/11/17/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/17/04.jpg" width="1070" height="635" /></a></p>
<p>しかし再起動後に新しく撮った18時38分のスナップショットデータはロック状態になります<br />
<a href="https://fefcc.net/files/2019/11/17/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/17/05.jpg" width="1070" height="635" /></a></p>
<p>次はこの仕様がスナップショットマネージャー以外にも影響しているという話</p>
<h2>スナップショットを利用する他の機能について</h2>
<p>ロック解除しないとスナップショットのデータが閲覧できないということは<br />
スナップショットに関係する全てのアプリに影響します</p>
<p>例えばスナップショットマネージャーで見なくても<br />
Windowsファイル共有にて@Recently-Snapshotフォルダから<br />
スナップショットを閲覧できる機能もありますがこれも影響します<br />
<a href="https://fefcc.net/files/2019/11/17/06.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/17/06.jpg" width="600" height="120" /></a></p>
<p>動作としては@Recently-Snapshotフォルダ自体は機能を有効にしていれば配置されますが<br />
@Recently-Snapshotの中にはロック解除したスナップショットデータのみ表示されるので<br />
NAS起動後に何もしなければ@Recently-Snapshotの中は<br />
ボリュームロック解除した時点までのスナップショットデータのみ表示されて<br />
新しいスナップショットデータはスナップショットマネージャーでロック解除するか<br />
再度ボリュームをロック解除するまでは表示されません</p>
<p>他にも「Windowsの[以前のバージョン]」機能や<br />
File Stationのスナップショットフォルダも同様にロック解除しないとリストに表示されません</p>
<h2>最後に</h2>
<p>スナップショットをよく使う用途であれば暗号化を有効にすると<br />
なかなか面倒な仕様に仕上がっていますので注意が必要です</p>
<p>新しいスナップショットはロック解除しないと中身を閲覧できず<br />
毎度、暗号化キーファイルが必要ということは<br />
暗号化キーファイルの使用頻度も上がり暗号化キーファイル自体の管理も<br />
NAS起動時だけ保管場所から取り出せばいいという訳にもいかなくなります</p>
<p>理想というか普通はボリュームのロック解除中はオンメモリで暗号化キーを保管して<br />
新しいスナップショットデータも自動でロック解除して欲しいところ</p>
<p>暗号化キー周りの作りは他の記事でも触れてますが<br />
暗号化キー変更の制限や物理キーが作成できなかったりと<br />
他社のNASを使ったことがあるとどうしても不便と感じるのが本音です</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/983/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>WD40EFRX-RT2をTS-873に入れてみた</title>
		<link>https://fefcc.net/archives/977</link>
					<comments>https://fefcc.net/archives/977#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Fri, 15 Nov 2019 08:46:03 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=977</guid>

					<description><![CDATA[WD40EFRX-RT2をTS-873に入れてみた記録 最初に QNAP TS-873-4G メモリを64GB化済 Amazon &#124; QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU 4GBメモ [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>WD40EFRX-RT2をTS-873に入れてみた記録<span id="more-977"></span></p>
<h2>最初に</h2>
<p>QNAP TS-873-4G<br />
メモリを64GB化済</p>
<p>Amazon | QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU 4GBメモリ 8ベイ DTCP-IP/DLNA対応<br />
<a rel="noopener" href="https://amzn.to/34uq7oC" target="_blank">https://amzn.to/34uq7oC</a></p>
<p>WD WD40EFRX-RT2</p>
<p>Amazon | WD HDD 内蔵ハードディスク 3.5インチ 4TB WD Red NAS用 WD40EFRX-RT2 5400rpm 3年保証<br />
<a rel="noopener" href="https://amzn.to/2q3yQ2t" target="_blank">https://amzn.to/2q3yQ2t</a></p>
<p>8台検証したST1000DM010は7200rpmのHDDだったので<br />
5400rpmのHDDで検証する為、WD40EFRX-RT2を使用します</p>
<p>こちらは手元に4台しかなかったので4台までの検証を行います</p>
<h2>IntelliParkを無効化</h2>
<p>WDのHDDを買ってまずすることはもちろんIntelliParkを無効化です</p>
<p>NASに突っ込む前に余ってるPCにWD40EFRX-RT2を接続して<br />
Arch LinuxのUSBブートで起動</p>
<p>idle3-toolsをインストール<br />
# pacman -Syy idle3-tools</p>
<p>無効化したいWD40EFRX-RT2のデバイス名確認<br />
# fdisk -l</p>
<p>現在のIntelliPark設定状態を確認（sdaの部分をfdiskの結果に合わせる）<br />
# idle3ctl -g /dev/sda<br />
Idle3 timer set to 138 (0x8a)</p>
<p>IntelliParkを無効化する<br />
# idle3ctl -d /dev/sda<br />
Idle3 timer disabled</p>
<p>シャットダウンで終了<br />
# shutdown -h now</p>
<p>この時点で設定されていますが<br />
念のため確認したい場合は再度PCを起動して設定状態を確認します</p>
<p>WD40EFRX-RT2のIntelliPark設定値は初期値だと300秒<br />
# idle3ctl -g /dev/sda<br />
Idle3 timer set to 138 (0x8a)</p>
<p>ちなみにWD Blueの場合は初期値が8秒<br />
Idle3 timer set to 80 (0x50)</p>
<p>WD Redの場合はBlueより長めに設定されているので<br />
Load_Cycle_Countカウントはかなり減るとは思うが<br />
ここを調整してきてる辺りWDもわざと嫌がらせしてるんじゃないのかと思いつつ<br />
そもそも不要な機能なので無効化しました</p>
<h2>WD40EFRX-RT2単体で計測</h2>
<p>NASではなくPCへ接続して直接計測</p>
<p>CrystalDiskMark 7.0.0fの結果<br />
<a href="https://fefcc.net/files/2019/11/15/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/01.jpg" width="482" height="347" /></a></p>
<h2>TS-873に入れて計測</h2>
<p>QTSのバージョンは4.4.1.1117</p>
<p>QTS上でのWD40EFRX-RT2の実認識容量は3.64TB（4TB）</p>
<p>システムボリュームは別のディスクへ既に作成済</p>
<p>NASローカル計測の計測方法については以前の記事と同じですので<br />
そちらをご覧ください</p>
<p>TS-873でのローカル速度計測 | fefcc.net<br />
<a href="https://fefcc.net/archives/886">https://fefcc.net/archives/886</a></p>
<h3>HDD1台 RAIDなし</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/15/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/02.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：3.63TB<br />
想定予約済みスペース：103.77GB<br />
想定未割り当てスペース：3.53TB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/15/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/03.jpg" width="890" height="500" /></a></p>
<p>空き容量：3.63TB<br />
予約済みスペース：103.73GB<br />
未割り当てスペース：3.53TB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/04.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV3_DATA/test/fio-cdm /share/CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    175.824|    171.037|
| 512K |     52.054|    107.653|
|   4K |      0.516|      1.849|
|4KQD32|      1.776|      1.800|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/05.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV3_DATA/test/fio-cdm /share/CE_CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    168.727|    161.744|
| 512K |     50.167|     96.613|
|   4K |      0.524|      1.855|
|4KQD32|      1.819|      1.854|</pre>
<h3>HDD2台 RAID1</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/15/06.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/06.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：3.63TB<br />
想定予約済みスペース：103.77GB<br />
想定未割り当てスペース：3.53TB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/15/07.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/07.jpg" width="890" height="500" /></a></p>
<p>空き容量：3.63TB<br />
予約済みスペース：103.73GB<br />
未割り当てスペース：3.53TB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/08.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/08.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV3_DATA/test/fio-cdm /share/CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    169.762|    163.552|
| 512K |     52.600|     96.060|
|   4K |      0.527|      1.511|
|4KQD32|      3.259|      1.768|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/09.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/09.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV3_DATA/test/fio-cdm /share/CE_CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    161.974|    148.406|
| 512K |     51.148|     90.812|
|   4K |      0.520|      1.497|
|4KQD32|      3.276|      1.788|</pre>
<h3>HDD3台 RAID5</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/15/10.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/10.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：7.26TB<br />
想定予約済みスペース：140.94GB<br />
想定未割り当てスペース：7.12TB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/15/11.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/11.jpg" width="890" height="530" /></a></p>
<p>空き容量：7.26TB<br />
予約済みスペース：140.89GB<br />
未割り当てスペース：7.12TB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/12.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/12.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV3_DATA/test/fio-cdm /share/CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    275.788|    154.193|
| 512K |     54.376|     39.169|
|   4K |      0.575|      0.636|
|4KQD32|      4.795|      1.754|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/13.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/13.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV3_DATA/test/fio-cdm /share/CE_CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    264.189|     80.897|
| 512K |     51.515|     35.444|
|   4K |      0.564|      0.616|
|4KQD32|      4.967|      1.703|</pre>
<h3>HDD4台 RAID5</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/15/14.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/14.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：10.89TB<br />
想定予約済みスペース：178.11GB<br />
想定未割り当てスペース：10.72TB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/15/15.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/15.jpg" width="890" height="550" /></a></p>
<p>空き容量：10.89TB<br />
予約済みスペース：178.05GB<br />
未割り当てスペース：10.71TB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/16.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/16.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV3_DATA/test/fio-cdm /share/CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    205.457|     74.527|
| 512K |     56.400|     34.311|
|   4K |      0.613|      0.668|
|4KQD32|      6.332|      1.594|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/17.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/17.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV3_DATA/test/fio-cdm /share/CE_CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    194.123|     61.380|
| 512K |     53.501|     30.708|
|   4K |      0.607|      0.651|
|4KQD32|      6.254|      1.608|</pre>
<h3>HDD4台 RAID6</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/15/18.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/18.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：7.26TB<br />
想定予約済みスペース：140.94GB<br />
想定未割り当てスペース：7.12TB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/15/19.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/19.jpg" width="890" height="550" /></a></p>
<p>空き容量：7.26TB<br />
予約済みスペース：140.89GB<br />
未割り当てスペース：7.12TB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/20.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/20.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV3_DATA/test/fio-cdm /share/CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    201.614|    149.839|
| 512K |     52.678|     36.516|
|   4K |      0.583|      0.578|
|4KQD32|      5.847|      1.604|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/21.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/21.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV3_DATA/test/fio-cdm /share/CE_CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    183.021|     77.559|
| 512K |     52.117|     33.907|
|   4K |      0.571|      0.571|
|4KQD32|      5.859|      1.621|</pre>
<h3>HDD4台 RAID10</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/15/22.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/22.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：7.26TB<br />
想定予約済みスペース：140.94GB<br />
想定未割り当てスペース：7.12TB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/15/23.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/23.jpg" width="890" height="550" /></a></p>
<p>空き容量：7.26TB<br />
予約済みスペース：140.89GB<br />
未割り当てスペース：7.12TB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/24.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/24.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV3_DATA/test/fio-cdm /share/CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    344.434|    308.248|
| 512K |     54.751|    166.721|
|   4K |      0.566|      2.529|
|4KQD32|      5.720|      3.406|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/15/25.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/15/25.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV3_DATA/test/fio-cdm /share/CE_CACHEDEV3_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    342.475|    217.826|
| 512K |     54.877|    138.006|
|   4K |      0.563|      2.527|
|4KQD32|      5.727|      3.464|</pre>
<h2>まとめ</h2>
<p>今回もWindowsからの計測はGbE上限値なのであまり意味はないですが<br />
SSD記事と同様に記録用として丸ごと掲載しました</p>
<p>ローカル計測結果については<br />
ST1000DM010より高速になってたり逆に数値落ちすぎじゃない？と思う場面があり<br />
自分でみても裏で何か動いてるのか？と確認したぐらい謎でしたが<br />
ちゃんと前回同様の条件として10回10秒間隔で計測したので<br />
結果は結果としてそのまま掲載しました</p>
<p>ST1000DM010でのローカル計測記事でも書きましたが<br />
fio-cdm計測は50前後の誤差が平気で発生してしまうので<br />
そのつもりで参考にしてください</p>
<p>LAN経由だとよっぽどの一気に大容量を流し込まなければ<br />
メモリキャッシュが機能して転送速度は安定するので<br />
実用上ではあまり気にすることはないと思います</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/977/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>CT250MX500SSD1/JPをTS-873に入れてみた</title>
		<link>https://fefcc.net/archives/968</link>
					<comments>https://fefcc.net/archives/968#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Wed, 13 Nov 2019 09:19:34 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=968</guid>

					<description><![CDATA[CT250MX500SSD1/JPをTS-873に入れてみた記録 最初に QNAP TS-873-4G メモリを64GB化済 Amazon &#124; QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU  [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>CT250MX500SSD1/JPをTS-873に入れてみた記録<span id="more-968"></span></p>
<h2>最初に</h2>
<p>QNAP TS-873-4G<br />
メモリを64GB化済</p>
<p>Amazon | QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU 4GBメモリ 8ベイ DTCP-IP/DLNA対応<br />
<a rel="noopener" href="https://amzn.to/34uq7oC" target="_blank">https://amzn.to/34uq7oC</a></p>
<p>Crucial CT250MX500SSD1/JP</p>
<p>Amazon | Crucial SSD 250GB 内蔵2.5インチ 7mm MX500 (9.5mmアダプター付) CT250MX500SSD1/JP<br />
<a rel="noopener" href="http://amzn.to/2Gm7bNc" target="_blank">http://amzn.to/2Gm7bNc</a></p>
<p>SSDを入れてみるとどのくらいのパフォーマンスがあるのか<br />
手元にCT250MX500SSD1/JPが2台あったので入れてみました</p>
<p>CT250MX500SSD1/JPについては以前の記事で紹介してますが<br />
購入時期が違ってFWも違うので改めて計測してます</p>
<p>crucial MX500 CT250MX500SSD1/JPを計測 | fefcc.net<br />
<a href="https://fefcc.net/archives/605">https://fefcc.net/archives/605</a></p>
<h2>CT250MX500SSD1/JP単体で計測</h2>
<p>NASではなくPCへ接続して直接計測<br />
FWはM3CR023</p>
<p>CrystalDiskMark 7.0.0fの結果<br />
<a href="https://fefcc.net/files/2019/11/13/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/01.jpg" width="482" height="347" /></a></p>
<h2>TS-873に入れて計測</h2>
<p>QTSのバージョンは4.4.1.1117</p>
<p>QTS上でのCT250MX500SSD1/JPの実認識容量は232.89GB（250GB）</p>
<p>システムボリュームは別のディスクへ既に作成済</p>
<p>SSD使用時に選択できるオーバープロビジョンは使用してません</p>
<p>NASローカル計測の計測方法については以前の記事と同じですので<br />
そちらをご覧ください</p>
<p>TS-873でのローカル速度計測 | fefcc.net<br />
<a href="https://fefcc.net/archives/886">https://fefcc.net/archives/886</a></p>
<h3>SSD1台 RAIDなし</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/13/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/02.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：223.39GB<br />
想定予約済みスペース：68.83GB<br />
想定未割り当てスペース：154.56GB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/13/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/03.jpg" width="890" height="500" /></a></p>
<p>空き容量：223.39GB<br />
予約済みスペース：68.79GB<br />
未割り当てスペース：154.59GB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/13/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/04.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV4_DATA/test/fio-cdm /share/CACHEDEV4_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    342.590|    292.990|
| 512K |    308.992|    271.330|
|   4K |     32.162|     68.804|
|4KQD32|    208.003|    183.578|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/13/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/05.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV4_DATA/test/fio-cdm /share/CE_CACHEDEV4_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    302.422|    218.523|
| 512K |    242.424|    165.776|
|   4K |     32.806|     53.214|
|4KQD32|    195.569|    181.143|</pre>
<h3>SSD2台 RAID1</h3>
<h4>ストレージプール作成の想定容量</h4>
<p><a href="https://fefcc.net/files/2019/11/13/06.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/06.jpg" width="610" height="320" /></a></p>
<p>想定空き容量：223.39GB<br />
想定予約済みスペース：68.83GB<br />
想定未割り当てスペース：154.56GB</p>
<h4>実際に構築した状態</h4>
<p><a href="https://fefcc.net/files/2019/11/13/07.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/07.jpg" width="890" height="500" /></a></p>
<p>空き容量：223.39GB<br />
予約済みスペース：68.79GB<br />
未割り当てスペース：154.59GB</p>
<h4>非暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/13/08.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/08.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CACHEDEV4_DATA/test/fio-cdm /share/CACHEDEV4_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    376.609|    285.396|
| 512K |    301.798|    262.161|
|   4K |     33.021|     64.639|
|4KQD32|    230.112|    144.368|</pre>
<h4>暗号化シックボリューム</h4>
<p>CrystalDiskMark 7.0.0fを使ってGbE経由で計測した結果<br />
<a href="https://fefcc.net/files/2019/11/13/09.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/09.jpg" width="482" height="347" /></a></p>
<p>ローカル計測結果</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">[~] # /share/CE_CACHEDEV4_DATA/test/fio-cdm /share/CE_CACHEDEV4_DATA/test
|      | Read(MB/s)|Write(MB/s)|
|------|-----------|-----------|
|  Seq |    319.202|    216.720|
| 512K |    234.755|    166.180|
|   4K |     32.782|     50.887|
|4KQD32|    207.036|    148.967|</pre>
<h2>まとめ</h2>
<p>基本的にはキャッシュ無効になって素のパフォーマンスが確認できる<br />
ローカル計測結果を参考に見てもらえればと思います<br />
Windowsからの計測もGbE上限値ですが一応、記録の為掲載しておきました</p>
<p>GbE環境の場合、通信経路がボトルネックなので<br />
HDD・SSDともに実際のパフォーマンスにほぼ変わりはないですが<br />
メモリが少ない等でキャッシュ溢れが多い環境であれば<br />
素のパフォーマンスのおかげでランダムアクセスが快適になります</p>
<h2>最後に</h2>
<p>SSDをRAIDで使用する場合の注意点ですが<br />
RAIDの仕組み上、全ディスクがほぼ同量の書き込み量になるので<br />
一定の書き込み量で寿命を迎えるSSDとはどうしても相性がよくありません<br />
（特にRAID6を選択するメリットがHDDより減る）</p>
<p>もちろん使い方や何年ぐらい使う予定なのか次第で<br />
倉庫的な書き込みが少ない環境やTBWが元々多いSSDであれば全く気にする必要はなし</p>
<p>仮想マシン用などで書き込みが多い環境や<br />
TBWの少ないQLC SSDを導入する場合だけ注意が必要</p>
<p>事前にこの問題があることを利用者がわかっていれば<br />
ハードな使い方をする環境であっても<br />
S.M.A.R.T.で総書き込み量を確認してTBWに到達する前に交換すれば<br />
簡単に対処可能ですので致命的な問題ではありません</p>
<p>S.M.A.R.T.で「残り寿命」を提供しているSSDであれば<br />
QNAPの場合はディスク情報にて「SSD推定残り寿命」が表示されます<br />
<a href="https://fefcc.net/files/2019/11/13/10.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/10.jpg" width="850" height="165" /></a></p>
<p>その他情報のリンク先はヘルプセンターになっていて以下の説明文が表示されます<br />
<a href="https://fefcc.net/files/2019/11/13/11.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/13/11.jpg" width="970" height="95" /></a></p>
<p>Synologyでも同様にHDD/SSD -&gt; 健康状態に「想定寿命」として表示されています</p>
<p>Synologyの場合は更になる対処法として交換のタイミングを1台だけずらすことが可能な<br />
RAID F1という選択肢がオールSSD構成のNAS向けに用意されています</p>
<blockquote><p>RAID F1<br />
SSDとRAID技術がもつ特異性により生じる、負荷が均一に分散することで全ドライブが同時に故障するという傾向をいかに防ぐかが大きな課題です</p>
<p>RAID F1 は、異なるドライブにワークロードを不均一にかけるよう特別に設計されたアルゴリズムでこの問題を軽減し、ストレージプールの耐久性を強化し、データの安全性を高めます。</p></blockquote>
<p>RAID5をベースに1台だけ負荷を多くかけるだけなので意外とシンプル<br />
RAID5ベースなので3台以上が必要ですが気になる方はRAID F1で検索してみてください</p>
<p>QNAPには今のところ似た機能はないですけどオールSSDのNASが増えてきたので<br />
Synologyと同じく倉庫以外で利用するような上位機種に向けて<br />
何らかの形でこの問題に対処してくるのではないかと思ってます</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/968/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QNAP NASに思う いろいろな点</title>
		<link>https://fefcc.net/archives/964</link>
					<comments>https://fefcc.net/archives/964#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Tue, 12 Nov 2019 13:34:31 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=964</guid>

					<description><![CDATA[QNAP NASに思う いろいろな点を書くだけの記事 最初に 現在はTS-873をメインに記事化してましたが 他にも何台か管理しているQNAP NASがあるので TS-873に限定せずQNAP NAS全般に 記事化するほ [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>QNAP NASに思う いろいろな点を書くだけの記事<span id="more-964"></span></p>
<h2>最初に</h2>
<p>現在はTS-873をメインに記事化してましたが<br />
他にも何台か管理しているQNAP NASがあるので<br />
TS-873に限定せずQNAP NAS全般に<br />
記事化するほどのネタではないけどメモしておきたい事を<br />
ひらすらこの記事に書いていきますので<br />
記事公開後もこそっと更新すると思います</p>
<p>将来的にアップデートで修正されそうな案件は<br />
QTSバージョンを記載するようにしています</p>
<h2>HDDトレイがプラスチック</h2>
<p>TS-873もプラスチックですし今のQNAPはほとんどプラスチックになってます<br />
昔のQNAP機種は金属製が当たり前でしたので残念です</p>
<p>TS-873に至ってはHDDトレイの鍵すら省略されてます<br />
QNAPの鍵があっても共通鍵だったりするんですけどね（特にプラの鍵）</p>
<p>QNAPといえばソフトウェアは悪いけどハードウェアは質が良いなんて<br />
言われてましたがどんどんコストダウンされてる印象</p>
<h2>ECCメモリ対応機の壁</h2>
<p>SynologyはAtomクラスでもECC公式対応しているのですが<br />
QNAPはXeonクラスでしか公式対応はしてません</p>
<h2>スナップショット領域の仕様</h2>
<p>QTS 4.4.1.1117</p>
<p>前記事で触れてますので詳細はそちらへ</p>
<p>QNAP NASの使用可能容量 | fefcc.net<br />
<a href="https://fefcc.net/archives/951">https://fefcc.net/archives/951</a></p>
<p>スナップショット領域をユーザにどれくらい使うかを事前に予想させる不親切さ<br />
この時代遅れな仕様はそろそろ何とかしてほしい</p>
<h2>システムボリュームの暗号化は想定されていない</h2>
<p>QTS 4.4.1.1117</p>
<p>1つ目にボリュームを作ると勝手に割り当てられる<br />
システムボリュームですがこのシステムボリュームを暗号化すると<br />
NAS起動時にWEB管理画面が出ずにSSH接続が必要になるらしいです</p>
<p>QNAPのシステムボリュームを暗号化しているときに，再起動すると管理画面にログインできなくなった場合の対処法 &#8211; Qiita<br />
<a rel="noopener" href="https://qiita.com/masnagam/items/ef6d39bf053a49854dae" target="_blank">https://qiita.com/masnagam/items/ef6d39bf053a49854dae</a></p>
<p>私もシステムボリューム作成前でも管理画面は動いていて大丈夫だと思っていたので<br />
実行前にたまたまこの記事を見て助かったパターンでした</p>
<p>ちなみに最近のQNAPはデフォルトでSSH有効だったのですが<br />
QTS 4.4.1.1101 build 20191025からデフォルトでSSH無効に変更されてますので<br />
試す場合は有効に設定するのを忘れずに</p>
<h2>USBメモリーを暗号化キーとして使えない</h2>
<p>QTS 4.4.1.1117</p>
<p>先ほど紹介した記事内の「暗号化鍵を外部USBメモリーに保存」という項目で<br />
触れられている話と同じです</p>
<p>QNAPのNASはボリュームロック解除の方法でNAS本体に暗号化鍵を保存しない選択肢は<br />
手動のパスワード入力かキーファイルを管理画面でアップロードするかの2択しかありません</p>
<p>手動入力で強度のあるパスワードは現実的ではないしPCにテキスト保存するなら<br />
キーファイルで十分だしって話なので現実的なのはキーファイル運用なんですけど<br />
キーファイル使うならUSBメモリに入れて起動時に読み込んでくれたら<br />
システムボリュームも簡単に暗号化運用出来て楽なのにと思います</p>
<p>この点便利なのがReadyNASで<br />
ReadyNASは起動時に暗号化鍵が入ったUSBメモリーを刺さないとシステム起動自体せず<br />
暗号化鍵が合っていれば自動でシステム起動後にマウントされて利用可能<br />
もちろん起動後はUSBメモリを抜いても問題ないので普段はUSBキーは外して運用し<br />
電源オフでロック状態になるのでNASごと盗もうとコンセント抜いたらロックです</p>
<p>ReadyNASほどのシステムではないですがSynologyも物理キー作成に対応済</p>
<p>ちなみにQNAPで用意されている暗号化鍵をNAS本体に保存する・しないでの効力の違いは<br />
保存しない場合はNASとHDDどちら盗まれてもデータはもちろん閲覧不可能<br />
保存する場合はNASごと盗まれるとデータ閲覧可能でHDDだけ盗まれた場合のみ閲覧不可能</p>
<p>現実的に考えるとラックタイプならまだしも普通の据え置き型の場合は<br />
HDDが盗まれる状況ならNASごと持ち去るでしょう（RAID構成を考慮すると尚更）<br />
メリットとしてはHDDを売却するときにデータ消去作業が不要で楽というぐらいでしょうか<br />
個人的にはNAS本体に暗号化鍵を保存するぐらいなら暗号化しなくてもいい気がします</p>
<p>暗号化キーについてはこちらの記事でも触れています</p>
<p>QNAP NASの暗号化とスナップショットの関係 | fefcc.net<br />
<a href="https://fefcc.net/archives/983">https://fefcc.net/archives/983</a></p>
<h2>データ収集契約はオプトアウト</h2>
<p>QTS 4.4.1.1117</p>
<p>初回の管理画面ログイン後に「ストレージ＆スナップショット」ツールが自動で起動し<br />
データ収集契約の同意を求められます<br />
<a href="https://fefcc.net/files/2019/11/12/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/12/01.jpg" width="1170" height="490" /></a></p>
<p>「はい」を選択しないと使えないように勘違いしがちですけど<br />
情報送信したくない場合は「いいえ」でも問題ありません</p>
<p>後から設定変更したい場合は右上にある歯車マークから<br />
グローバル設定 -&gt; ディスク/デバイス -&gt; ディスク分析データをQNAPと共有するをオフ<br />
<a href="https://fefcc.net/files/2019/11/12/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/12/02.jpg" width="1280" height="710" /></a></p>
<p>SSD Profiling Toolも使う際にデータ送信を求められるので<br />
同様に注意してください</p>
<h2>QTS4.4系のランダム再起動問題</h2>
<p>QTS4.4系で機種に関係なくランダム再起動する問題が<br />
公式フォーラムやredditで数多く報告されていて<br />
QNAP側も問題は把握しているものの<br />
現在最新のQTS 4.4.1.1117 build 20191109でも解決していない模様</p>
<p>現象としては数分・数時間・数日で勝手に再起動されてしまうようで<br />
本当に間隔が環境によって様々でまさにランダム<br />
しかし多くの該当機も4.3系にダウングレードすると大丈夫らしいです</p>
<p>この問題は同じ機種でも発生する場合と発生しない場合があったりで<br />
原因が不明な為、原因究明のために<br />
フォーラムでは4.4系に更新する前に必ずデータをバックアップする旨と共に<br />
再起動問題が発病したらヘルプデスクアプリでサポートチケットを発行するよう<br />
呼びかけられています</p>
<p>私の場合、TS-873は購入直後に4.3系から4.4系にアップデートして<br />
現在は4.4.1.1086と4.4.1.1117でテストしてましたが<br />
（4.4系に上げた後に完全初期化を実行してます）<br />
今のところランダム再起動は一度もありません<br />
<a href="https://fefcc.net/files/2019/11/12/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/12/03.jpg" width="455" height="140" /></a></p>
<p>使っているアプリも条件なのではないかと言われておりますが<br />
私の場合はSMBとVirtualization Stationしか使っておらず<br />
他サービスは既に無効にしています</p>
<p>今回はテスト中なのでFWも即日アップデート適用しましたが<br />
データを入れて運用開始したらFWもリリース後すぐには入れない方がいいです<br />
QNAP NASは良くも悪くもそんなもんです</p>
<h2>myQNAPcloudには気をつけろ</h2>
<p>myQNAPcloudは外出先からNASへアクセスする為の機能で<br />
UPnPでルータ超えも自動で楽チン仕様</p>
<p>しかし最近はQNAPを狙ったMuhstikやQSnatchが発生しており利用には注意が必要</p>
<p>この機能の問題は自動で公開される範囲が広すぎる点で<br />
NASがプリインストールで勝手に動かしているサービスまで<br />
サービスが動いていれば利用者の意図せず公開されてしまいます</p>
<p>MuhstikはまさにphpMyAdminにて内部用のはずが<br />
自動で外部にも公開されていて知らぬ間にアタックされたパターンになります</p>
<p>NAS本体のパスワードはしっかり設定していても<br />
（adminのままmyQNAPcloudで公開してたりする冗談みたいなケースもあるらしいですが）<br />
アプリ内や内部でしか使わないユーザ・パスワードは甘いケースが多く<br />
結果、アプリごとに公開されるWEB画面から狙われることになります</p>
<p>myQNAPcloudを使っている場合はまずmyQNAPcloudでの公開サービスを確認し<br />
外出先から使わないサービスは全てmyQNAPcloud経由はオフにしましょう</p>
<h2>スナップショットがあると暗号化キーは変更できない</h2>
<p>QTS 4.4.1.1117</p>
<p>運用途中に暗号化ボリュームの暗号化キーを変更したくなった場合は<br />
ボリューム管理からアクション→暗号化→変更から新しい暗号化キーに変更できますが<br />
スナップショットのデータが1つでも存在するとこんな表示が出ます<br />
<a href="https://fefcc.net/files/2019/11/12/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/12/04.jpg" width="435" height="155" /></a></p>
<p>文字通りスナップショットを全て削除しないと<br />
暗号化キーの変更は受け付けない仕様で<br />
これは暗号化キーをNASに保存する・しないに関係なく発生します</p>
<p>スナップショットを使う場合は<br />
最初から暗号化キーを本番用の強度で設定しておき<br />
暗号化キーが漏れてもすぐには変更できないので<br />
暗号化キーの管理には十分注意しましょう</p>
<h2>ネットワークごみ箱機能についていろいろ</h2>
<p>QTS 4.4.1.1117</p>
<p>要はただのゴミ箱機能ですがネットワークごみ箱を有効にしている共有フォルダには<br />
@Recycleフォルダが追加されます<br />
<a href="https://fefcc.net/files/2019/11/12/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/12/05.jpg" width="620" height="115" /></a></p>
<p>ファイル名だけセットされているような<br />
中身のない0バイトのファイルはゴミ箱に移動されません</p>
<p>ゴミ箱にあるファイル名と同一ファイル名を消した場合は<br />
1つ目がtest.txt、2つ目はtext.txt[1]という感じでリネームされて保管されます</p>
<p>フォルダ内のファイルを削除した場合はゴミ箱フォルダ内でフォルダが勝手に作成されます<br />
（test/test.txtを消したらゴミ箱内にもtestフォルダが作成される）</p>
<p>ゴミ箱の中で常に「desktop.ini」が見える状態になっている問題<br />
通常のdesktop.iniは隠しファイルとして運用されるので<br />
隠しファイルを表示する設定をしているWindows以外は表示されず意識することはありません<br />
しかしQNAPのゴミ箱フォルダにはなぜか通常ファイルとしてdesktop.iniが配置されるので<br />
残念ながら常に表示されます（QNAP側の実装漏れな気がしますけど）</p>
<p>desktop.iniをWindowsから手動で隠しファイルに設定するともちろん見えなくなりますが<br />
ゴミ箱を空にしたりするとdesktop.iniが再度自動生成される関係でまた元に戻ってしまいます</p>
<p>desktop.iniを間違えて削除してしまった場合でも<br />
上記の理由で勝手に生成されるのですぐに戻したい場合は<br />
管理画面のコンパネから手動でゴミ箱を空にすれば復元されますし<br />
急ぎで無ければ1日経てばゴミ箱チェック時刻の処理で勝手に復元されます<br />
@Recycleはゴミ箱アイコンになっていますが当然設定はdesktop.iniで行われおり<br />
削除するとdesktop.iniが復元されるまでは普通のフォルダアイコンになります</p>
<p>@Recycleフォルダはゴミ箱扱いになっているだけで<br />
ただのフォルダと同じですからWindowsからフォルダごと削除できてしまいます<br />
その場合は何でもいいのでファイルを削除すると@Recycleフォルダが復活します<br />
（ゴミ箱の中身は当然消えます）</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/964/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QNAP NASの使用可能容量</title>
		<link>https://fefcc.net/archives/951</link>
					<comments>https://fefcc.net/archives/951#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Mon, 11 Nov 2019 07:45:59 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=951</guid>

					<description><![CDATA[QNAP NASの使用可能容量に関するメモ 最初に QNAP NASをセットアップして実際にどのくらいの容量が使用できるのか？ NASですから当然気になる点だと思います QNAPのNAS OSであるQTSには「システム予 [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>QNAP NASの使用可能容量に関するメモ<span id="more-951"></span></p>
<h2>最初に</h2>
<p>QNAP NASをセットアップして実際にどのくらいの容量が使用できるのか？<br />
NASですから当然気になる点だと思います</p>
<p>QNAPのNAS OSであるQTSには「システム予約スペース」というものがあり<br />
いわばQTS版「天使の取り分」というのが存在します</p>
<p>この記事では実際にどれくらい容量が予約されるのかを紹介していきます</p>
<h2>検証環境</h2>
<p>検証機はQNAP TS-873-4G</p>
<p>Amazon | QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU 4GBメモリ 8ベイ DTCP-IP/DLNA対応<br />
<a rel="noopener" href="https://amzn.to/34uq7oC" target="_blank">https://amzn.to/34uq7oC</a></p>
<p>QTSはv4.4.1.1086を使用<br />
HDDはSeagate ST1000DM010 1TB</p>
<p>1TB HDDの実容量は931.51GB<br />
これは本来の「天使の取り分」である1000と1024の違いなんで特に問題なし<br />
<a href="https://fefcc.net/files/2019/11/11/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/01.jpg" width="290" height="120" /></a></p>
<h2>QNAPサイト上での情報</h2>
<blockquote><p><a rel="noopener" href="https://www.qnap.com/ja-jp/how-to/faq/article/%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E4%BA%88%E7%B4%84%E3%82%B9%E3%83%9A%E3%83%BC%E3%82%B9%E3%81%A8%E3%81%AF/" target="_blank">システム予約スペースとは</a></p>
<p>QNAP NAS では、システム予約スペース (Storage Manager では システム予約済み) に次のものが含まれます。</p>
<p>・QNAP RAID の予約スペースに RAID メタデータを格納。各 RAID グループの総容量の 1% が予約され、各グループに対する最大は 150GB です。<br />
・QNAP ストレージ予約スペースには、ストレージ構成データと、NAS を正常に動作させ続けるための余分のスペースが含まれます。大きさは各ストレージプールごとに 約 70 GB 、各スタティックボリュームごとに 20 GB です。<br />
・EXT4 ファイルシステム メタデータ: 大きさは各ユーザー作成ボリュームごとに 1% to 1.5% です。</p>
<p>リリース日: 2017-03-03</p></blockquote>
<h2>ストレージプール</h2>
<p>NASのセットアップを始めると最初にストレージプールを作成することになりますが<br />
ストレージプールを作成するだけで早速、システム予約されます</p>
<p>公式の情報が正しければ<br />
まず総容量の1%（上限150GB）をRAID予約スペースとして確保した上で<br />
残り容量を使ってストレージプールを作成</p>
<p>次にそのストレージプールからストレージ予約スペースとして<br />
約70GBがストレージプール内で確保されます<br />
（想定予約済みスペースで表示されるのがこの部分）</p>
<p>つまり1TBHDDの実容量は931.51GBなので<br />
931.51の1%である9.3151GBがRAID予約スペースで使用し<br />
残りの922.1949GBを使ってストレージプールを作成<br />
そのストレージプールの中で70GBをストレージ予約スペースとして確保されます<br />
計算上は（931.51-9.3151）-70=852.1949で約852GBが使用可能容量</p>
<p>RAID作成の想定画面でどの程度になるかを見つつ<br />
実際に構築した結果も一部紹介します</p>
<h3>HDD1台</h3>
<p>RAIDなし<br />
<a href="https://fefcc.net/files/2019/11/11/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/02.jpg" width="610" height="320" /></a></p>
<p>空き容量：922.01GB<br />
予約済みスペース：75.82GB<br />
未割り当てスペース：846.19GB</p>
<p>計算上は約852GBでしたが<br />
ストレージ予約スペース（約70GB）の部分で75.82GB確保したため<br />
実際にボリューム割り当てできる容量は846.19GBになりました</p>
<p>ちなみにHDD1台なのでRAIDではないのですが<br />
画像内でも新規RAIDグループとして記載されている通り<br />
QTSではディスク数に限らず基本的にはRAIDと同じ扱いになります</p>
<p>純粋なシングルディスクボリュームで作成したい場合は<br />
静的ボリューム作成の方が容量的にはお得になりますが<br />
静的ボリュームについては記事後半で紹介してます</p>
<h3>HDD2台</h3>
<p>RAID1（実効容量：1台）<br />
<a href="https://fefcc.net/files/2019/11/11/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/03.jpg" width="610" height="320" /></a></p>
<p>空き容量：922.01GB<br />
予約済みスペース：75.82GB<br />
未割り当てスペース：846.19GB</p>
<h3>HDD3台</h3>
<p>RAID5（実効容量：2台）<br />
<a href="https://fefcc.net/files/2019/11/11/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/04.jpg" width="610" height="320" /></a></p>
<p>空き容量：1.80TB<br />
予約済みスペース：85.03GB<br />
未割り当てスペース：1.72TB</p>
<h3>HDD4台</h3>
<p>RAID10（実効容量：2台）<br />
<a href="https://fefcc.net/files/2019/11/11/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/05.jpg" width="610" height="320" /></a></p>
<p>空き容量：1.80TB<br />
予約済みスペース：85.03GB<br />
未割り当てスペース：1.72TB</p>
<p>RAID5（実効容量：3台）<br />
<a href="https://fefcc.net/files/2019/11/11/06.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/06.jpg" width="610" height="320" /></a></p>
<p>空き容量：2.70TB<br />
予約済みスペース：94.25GB<br />
未割り当てスペース：2.61TB</p>
<p>RAID6（実効容量：2台）<br />
<a href="https://fefcc.net/files/2019/11/11/07.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/07.jpg" width="610" height="320" /></a></p>
<p>空き容量：1.80TB<br />
予約済みスペース：85.03GB<br />
未割り当てスペース：1.72TB</p>
<h3>HDD5台</h3>
<p>RAID5（実効容量：4台）<br />
<a href="https://fefcc.net/files/2019/11/11/08.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/08.jpg" width="650" height="320" /></a></p>
<p>空き容量：3.60TB<br />
予約済みスペース：103.46GB<br />
未割り当てスペース：3.50TB</p>
<p>RAID6（実効容量：3台）<br />
<a href="https://fefcc.net/files/2019/11/11/09.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/09.jpg" width="650" height="320" /></a></p>
<p>空き容量：2.70TB<br />
予約済みスペース：94.25GB<br />
未割り当てスペース：2.61TB</p>
<h3>HDD6台</h3>
<p>RAID10（実効容量：3台）<br />
<a href="https://fefcc.net/files/2019/11/11/10.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/10.jpg" width="700" height="320" /></a></p>
<p>空き容量：2.70TB<br />
予約済みスペース：94.25GB<br />
未割り当てスペース：2.61TB</p>
<p>RAID5（実効容量：5台）<br />
<a href="https://fefcc.net/files/2019/11/11/11.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/11.jpg" width="700" height="320" /></a></p>
<p>空き容量：4.50TB<br />
予約済みスペース：112.68GB<br />
未割り当てスペース：4.39TB</p>
<p>RAID6（実効容量：4台）<br />
<a href="https://fefcc.net/files/2019/11/11/12.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/12.jpg" width="700" height="320" /></a></p>
<p>空き容量：3.60TB<br />
予約済みスペース：103.46GB<br />
未割り当てスペース：3.50TB</p>
<p>RAID50（実効容量：4台）<br />
<a href="https://fefcc.net/files/2019/11/11/13.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/13.jpg" width="610" height="320" /></a></p>
<p>空き容量：3.60TB<br />
予約済みスペース：103.46GB<br />
未割り当てスペース：3.50TB</p>
<h3>HDD7台</h3>
<p>RAID5（実効容量：6台）<br />
<a href="https://fefcc.net/files/2019/11/11/14.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/14.jpg" width="730" height="320" /></a></p>
<p>空き容量：5.40TB<br />
予約済みスペース：121.90GB<br />
未割り当てスペース：5.28TB</p>
<p>RAID6（実効容量：5台）<br />
<a href="https://fefcc.net/files/2019/11/11/15.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/15.jpg" width="730" height="320" /></a></p>
<p>空き容量：4.50TB<br />
予約済みスペース：112.68GB<br />
未割り当てスペース：4.39TB</p>
<h3>HDD8台</h3>
<p>RAID10（実効容量：4台）<br />
<a href="https://fefcc.net/files/2019/11/11/16.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/16.jpg" width="780" height="320" /></a></p>
<p>空き容量：3.60TB<br />
予約済みスペース：103.46GB<br />
未割り当てスペース：3.50TB</p>
<p>RAID5（実効容量：7台）<br />
<a href="https://fefcc.net/files/2019/11/11/17.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/17.jpg" width="780" height="320" /></a></p>
<p>空き容量：6.30TB<br />
予約済みスペース：131.11GB<br />
未割り当てスペース：6.17TB</p>
<p>RAID6（実効容量：6台）<br />
<a href="https://fefcc.net/files/2019/11/11/18.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/18.jpg" width="780" height="320" /></a></p>
<p>空き容量：5.40TB<br />
予約済みスペース：121.90GB<br />
未割り当てスペース：5.28TB</p>
<p>RAID50（実効容量：6台）<br />
<a href="https://fefcc.net/files/2019/11/11/19.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/19.jpg" width="610" height="320" /></a></p>
<p>空き容量：5.40TB<br />
予約済みスペース：121.90GB<br />
未割り当てスペース：5.28TB</p>
<p>RAID60（実効容量：4台）<br />
<a href="https://fefcc.net/files/2019/11/11/20.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/20.jpg" width="700" height="320" /></a></p>
<p>空き容量：3.60TB<br />
予約済みスペース：103.46GB<br />
未割り当てスペース：3.50TB</p>
<h3>実際に構築した後の容量</h3>
<h4>HDD1台 RAIDなし</h4>
<p><a href="https://fefcc.net/files/2019/11/11/21.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/21.jpg" width="890" height="500" /></a></p>
<p>構築前の想定表示<br />
空き容量：922.01GB<br />
予約済みスペース：75.82GB<br />
未割り当てスペース：846.19GB</p>
<p>構築後の表示<br />
空き容量：922.02GB<br />
予約済みスペース：75.78GB<br />
未割り当てスペース：846.23GB</p>
<p>ほぼほぼ想定通りの表示で作成されているのがわかります</p>
<h4>HDD8台 RAID10</h4>
<p><a href="https://fefcc.net/files/2019/11/11/22.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/22.jpg" width="890" height="680" /></a></p>
<p>構築前の想定表示<br />
空き容量：3.60TB<br />
予約済みスペース：103.46GB<br />
未割り当てスペース：3.50TB</p>
<p>構築後の表示<br />
空き容量：3.60TB<br />
予約済みスペース：103.44GB<br />
未割り当てスペース：3.50TB</p>
<h4>HDD4台 RAID5</h4>
<p><a href="https://fefcc.net/files/2019/11/11/23.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/23.jpg" width="890" height="555" /></a></p>
<p>構築前の想定表示<br />
空き容量：2.70TB<br />
予約済みスペース：94.25GB<br />
未割り当てスペース：2.61TB</p>
<p>構築後の表示<br />
空き容量：2.70TB<br />
予約済みスペース：94.22GB<br />
未割り当てスペース：2.61TB</p>
<h4>HDD4台 RAID6</h4>
<p><a href="https://fefcc.net/files/2019/11/11/24.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/24.jpg" width="890" height="555" /></a></p>
<p>構築前の想定表示<br />
空き容量：1.80TB<br />
予約済みスペース：85.03GB<br />
未割り当てスペース：1.72TB</p>
<p>構築後の表示<br />
空き容量：1.80TB<br />
予約済みスペース：85.00GB<br />
未割り当てスペース：1.72TB</p>
<h3>まとめ</h3>
<p>ほぼ想定容量の表示通りに構築されるので<br />
事前の想定計算は信用できそうです</p>
<p>RAID別で比較しても予約スペースの割合にほとんど変わりはなく<br />
お得なRAID構成というのはないと思います</p>
<p>931.51GBから計算されているのでわかる通り<br />
ここで表示されている未割り当てスペースは既に1024計算になっていて<br />
ここから「天使の取り分」は取られません</p>
<h2>ボリューム</h2>
<p>ストレージプールを作成したら次にボリュームを作成します</p>
<p>公式情報によるとEXT4ファイルシステムメタデータという名で<br />
ボリュームごとに1～1.5%が使用されます</p>
<p>これは最初から取られる予約スペースではなく<br />
ファイル数など使用状況に応じて増減するようです</p>
<h3>ボリューム作成前</h3>
<p><a href="https://fefcc.net/files/2019/11/11/25.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/25.jpg" width="880" height="500" /></a></p>
<p>システムボリュームになると容量比較が難しくなるので<br />
システムボリュームを別ディスクに作成した後に別途ストレージプールを作成し<br />
そこに検証用のボリュームを作成しました</p>
<p>ちなみにシステムボリュームは最低でも約16GB使われます<br />
システムボリュームについてはこちらの記事をどうぞ</p>
<p>TS-873のシステムボリューム | fefcc.net<br />
<a href="https://fefcc.net/archives/895" target="_blank">https://fefcc.net/archives/895</a></p>
<h3>ボリューム作成画面</h3>
<p>まずはボリューム作成画面にて表示される容量を確認します</p>
<p>0GBの場合<br />
<a href="https://fefcc.net/files/2019/11/11/26.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/26.jpg" width="855" height="440" /></a></p>
<p>下のストレージプール容量に割り当て済みが既に75.78GBと表示されていますが<br />
これはストレージプール作成時に既に確保されている予約されたスペースで<br />
ボリューム作成ごとに75.78GBを取られるわけではありません</p>
<p>先ほどのボリューム作成前のストレージプール管理画面で表示されている通り<br />
75.78GB+846.23GB=922.01GBになります（0.01GBは端数処理の関係だと思われます）</p>
<p>200GBの場合<br />
<a href="https://fefcc.net/files/2019/11/11/27.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/27.jpg" width="855" height="440" /></a></p>
<p>200GBを設定しても割り当て済みが200GB増えるだけなので<br />
ボリューム容量で設定した容量を超えて確保されることはありません</p>
<p>800GBの場合<br />
<a href="https://fefcc.net/files/2019/11/11/28.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/28.jpg" width="855" height="440" /></a></p>
<p>最大846.23GBと表示されているのは使用可能容量なので<br />
割り当て済みが846.23GBを超えても問題なく<br />
設定されたアラートの閾値を超えても作成自体は可能です</p>
<p>ちなみに初期設定のままなので赤で表示されているアラート閾値は80%になっています<br />
使用容量が超えるとアラートで教えてくれる機能ですが<br />
不要な場合はストレージプールごとやボリュームごとに設定変更可能です</p>
<h4>アイノード別バイト数</h4>
<p>ついでの紹介になりますが<br />
下にあるファイルシステムオプションでアイノード別バイト数の設定が可能です<br />
アイノードとカタカナだと違和感がありますがLinux系でおなじみのinodeのことで<br />
初期設定は32Kですが設定値によって最大ファイル数とボリュームサイズが変わります</p>
<p>200GBと800GBの画像を比較してもらうとボリューム容量の入力数値によって<br />
最大ボリュームサイズとファイル・フォルダー最大数が変化しているのがわかります<br />
最大数の表記は1Mが100万なので6Mが600万ファイル、26Mだと2600万ファイル</p>
<p>細かい話をするとアクセス速度や容量使用効率などいろいろあるんですけど<br />
QNAP程度のマシンにそこまで求める人はいないでしょうから<br />
Officeファイルやテキストが相当数あるのなら8Kや16K<br />
動画や画像ファイルとかMB単位のファイルがメインなら16Kか32Kでいいと思います</p>
<h3>ボリューム作成後</h3>
<p>200GBでボリューム作成した後のストレージプールの状態がこちら<br />
割り当て済みが200GBきっちり増えてます<br />
<a href="https://fefcc.net/files/2019/11/11/29.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/29.jpg" width="880" height="500" /></a></p>
<p>200GBで作成したボリュームの状態はこちら<br />
<a href="https://fefcc.net/files/2019/11/11/30.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/30.jpg" width="880" height="280" /></a></p>
<p>容量が196.91GBになっているので3.09GBが予約スペースとして確保されたようです<br />
容量と空きサイズの差は使用済みの60.04MBで合うので無問題<br />
何もファイルは転送してませんがSSHで覗くと管理用ファイルが確認できます</p>
<pre class="EnlighterJSRAW" data-enlighter-language="null">-rw-------  1 admin administrators  6144 2019-11-11 13:39 aquota.user
drwx------  2 admin administrators 16384 2019-11-11 13:39 lost+found/
-rw-r--r--  1 admin administrators    29 2019-11-11 13:39 .qextension</pre>
<h2>スナップショット領域</h2>
<p>スナップショットを使わない人は読み飛ばしてもらって構いませんが<br />
スナップショット機能を使う場合はこの領域を考えてボリュームを作成する必要があります</p>
<p>というのも「ストレージプール＝ボリューム領域＋スナップショット領域」で使う必要があり<br />
ボリューム内にスナップショット領域があるわけではないのです</p>
<p>なのでボリューム作成時にボリューム容量を「最大に設定」ボタンで最大まで割り当てると<br />
警告表示でフリーストレージプール領域がないことを知らせてきます<br />
<a href="https://fefcc.net/files/2019/11/11/31.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/31.jpg" width="640" height="195" /></a></p>
<p>フリーストレージプール領域というのはボリュームに割り当てていない<br />
未割り当てのストレージプール領域のことで<br />
スナップショット用として割り当てる必要はありませんが<br />
他に用途が限られているので実質的に未割り当て＝スナップショット用になります</p>
<p>実際のスナップショットは差分処理されているので<br />
ファイルの追加・削除・更新の回数や保存期間など様々な条件で<br />
スナップショットに必要な容量は変化するため<br />
（１回あたりのスナップショットは数十MB～GB単位まで変わります）<br />
初めて利用する人はどのくらい容量を消費するかは最初から予測することはできません</p>
<p>というわけで最初から無駄なくボリュームを割り当てるのは不可能であり<br />
実際にある程度の期間、NASを使ってみて<br />
自分の使い方でスナップショットがどの程度の容量を消費するのかが判明してから<br />
ボリュームサイズ調整で無駄スペースを埋める必要があります</p>
<h3>保護されたスナップショット領域</h3>
<p>一応QNAPとしては「保護されたスナップショット領域」というのを用意していて<br />
スナップショット領域として全体容量の@@%を事前に確保するという形で<br />
ボリュームで意図せず消費しないように防ぐ機能がありますので一応紹介します</p>
<p>こちらが有効化する前のストレージプール（先ほど作成した200GBボリュームの状態）<br />
<a href="https://fefcc.net/files/2019/11/11/32.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/32.jpg" width="750" height="620" /></a></p>
<p>保護されたスナップショット領域を有効化すると容量設定が出てくる<br />
<a href="https://fefcc.net/files/2019/11/11/33.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/33.jpg" width="750" height="620" /></a></p>
<p>初期値ではプール領域の20%でストレージプール全領域が922.01GBなので184.40GB<br />
推奨のプルダウンで割合は変更可能でカスタムを選択すればサイズ固定の設定が可能です</p>
<p>ボリューム作成前に「保護されたスナップショット領域」を20%で設定しておくと<br />
深緑の表示で184.40GBが確保されます（75.78GBは予約スペース）<br />
<a href="https://fefcc.net/files/2019/11/11/34.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/34.jpg" width="890" height="510" /></a></p>
<p>ボリューム作成画面でも最大容量から既に引かれています<br />
<a href="https://fefcc.net/files/2019/11/11/35.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/35.jpg" width="790" height="235" /></a></p>
<p>QTS上の説明では「保護されたスナップショット領域」の機能について<br />
スナップショットで既にストレージプールを100%消費している状態で<br />
ボリュームサイズを拡張してしまって自動で古いスナップショットが１つ消えてしまった！<br />
というミスを防止する為とありますが実際にはかなりレアケースな事案ですので<br />
普通の人はフリーストレージプールのまま放置でいいと思います</p>
<h2>静的ボリューム</h2>
<p>あまり使う人はいないと思いますが<br />
HDD1台を外付けHDDのように単体でボリュームを作る場合は<br />
ストレージプールを1台構成で作成する以外に<br />
静的ボリュームを選択する方法もあります</p>
<p>静的ボリューム作成時の想定容量は922.01GB<br />
<a href="https://fefcc.net/files/2019/11/11/36.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/36.jpg" width="880" height="550" /></a></p>
<p>静的ボリューム作成後に状態確認<br />
ストレージ予約スペースは20GBとの情報でしたが実際には17.97GBで済み<br />
残った実使用可能容量は904.04GB<br />
<a href="https://fefcc.net/files/2019/11/11/37.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/37.jpg" width="890" height="500" /></a></p>
<p>ストレージプールを作成してから最大容量で割り当てた場合と<br />
静的ボリュームで作成した場合の比較<br />
<a href="https://fefcc.net/files/2019/11/11/38.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/11/38.jpg" width="1020" height="130" /></a></p>
<p>システムで確保される容量が少ないおかげで約70GBほど違いが出ました</p>
<p>ちなみに画像内のストレージプール3が警告になっている通り<br />
ストレージプールはボリュームに容量を割り当てた時点で容量消費扱いになるので<br />
ストレージプールに容量アラート閾値を設定する場合はそのことを忘れずに</p>
<p>このようにストレージプールでも最大容量までボリュームに割り当てていれば<br />
スナップショットは使えませんが<br />
静的ボリュームは空き容量があってもスナップショット機能は使えませんので<br />
その点だけご注意ください</p>
<h2>最後に</h2>
<p>1TBHDDの場合はスナップショットを使用しなければ837.94GB<br />
スナップショット用に20%確保すると661.83GB<br />
そこからがシステムボリューム用の16GBを引いたのが使用可能容量です</p>
<p>1TBHDDを使っているレベルでは変わりませんが<br />
システム予約スペースは固定値や上限値があったりするので<br />
実際に使うような数十TBクラスのストレージプールになれば<br />
全体容量から見ると予約スペース使用割合が減ることから<br />
QNAP NASはベイ数が多い方がいろんな意味で効率がいいです</p>
<p>QNAPにおける欠点の1つが今回紹介したスナップショット用の容量確保が必要という仕様で<br />
ボリュームに割り当てたらもうスナップショットに使えないなんて今時ありえません<br />
他社のNASはボリュームを最大限確保しておいてその中の未使用領域を利用する形が多く<br />
容量を無駄にすることのない作りが一般的です<br />
他社はまだext4を使っていた時から実装してますのでBtrfsとか関係ないはずで<br />
そろそろQNAPでもボリューム内で済ませてもらいたいです</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/951/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QNAPのバックアップアプリについて</title>
		<link>https://fefcc.net/archives/949</link>
					<comments>https://fefcc.net/archives/949#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Sat, 09 Nov 2019 08:44:39 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=949</guid>

					<description><![CDATA[QNAPのバックアップアプリについてのメモ プリインストールアプリ この画面はQTS v4.4.1.1086をインストールして初期化した状態から 不要なアイコンなどを消した状態ですが 「バックアップマネージャ」がプリイン [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>QNAPのバックアップアプリについてのメモ<span id="more-949"></span></p>
<h2>プリインストールアプリ</h2>
<p>この画面はQTS v4.4.1.1086をインストールして初期化した状態から<br />
不要なアイコンなどを消した状態ですが<br />
「バックアップマネージャ」がプリインストールされているのが<br />
アプリケーションリストとホームアイコンでわかります<br />
<a href="https://fefcc.net/files/2019/11/09/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/09/01.jpg" width="880" height="750" /></a></p>
<p>バックアップマネージャの画面はこんな感じ<br />
UIからしてもかなり古いのがわかります<br />
<a href="https://fefcc.net/files/2019/11/09/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/09/02.jpg" width="1280" height="660" /></a></p>
<p>このバックアップマネージャのメリットは<br />
QTSに元々組み込まれているのでインストール直後でも使用できて<br />
システムボリュームを不要とする点です</p>
<h2>HBS 3</h2>
<p>QNAPが現行で開発しているバックアップアプリが「HBS 3」です<br />
アプリ名では「HBS 3 Hybrid Backup Sync」ですが<br />
HBSはHybrid Backup Syncの頭文字なので<br />
QNAPサイトでもあるようにHBS 3が正式みたいです</p>
<p>3.0が出るまでは「Hybrid Backup Sync」という名称でした</p>
<p>HBS 3 | データのバックアップ、復元、同期<br />
<a rel="noopener" href="https://www.qnap.com/solution/hbs3/ja-jp/" target="_blank">https://www.qnap.com/solution/hbs3/ja-jp/</a></p>
<p>AppCenterの「バックアップ／同期」から「HBS 3 Hybrid Backup Sync」を選択<br />
そのままインストール<br />
<a href="https://fefcc.net/files/2019/11/09/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/09/03.jpg" width="1100" height="720" /></a></p>
<p>HBS 3をインストールするとただ追加されるだけではなく<br />
バックアップマネージャと置換されるので<br />
アプリケーションリストやホームアイコンが<br />
「バックアップマネージャ」→「HBS 3 Hybrid Backup Sync」になります<a href="https://fefcc.net/files/2019/11/09/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/09/04.jpg" width="880" height="750" /></a></p>
<p>「HBS 3 Hybrid Backup Sync」の画面はこんな感じ<br />
<a href="https://fefcc.net/files/2019/11/09/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/09/05.jpg" width="1280" height="865" /></a></p>
<p>アプリ容量はv3.0.191016で256.24MB<br />
こちらの表記では旧名称の「Hybrid Backup Sync」のままになってます<br />
<a href="https://fefcc.net/files/2019/11/09/06.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/09/06.jpg" width="900" height="565" /></a></p>
<p>QTSの仕様なのでHBS 3に限りませんが<br />
アプリがインストールされているシステムボリュームを削除するとHBS 3は削除されるので<br />
ボリューム構成が決まってからHBS 3を導入しジョブ追加をする流れになります</p>
<h2>最後に</h2>
<p>機能面での比較はしてませんが<br />
バックアップマネージャで出来ることはHBS 3でもほとんど出来ますので<br />
UIも今風ですし今から設定するならHBS 3を導入をオススメします</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/949/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QNAP TS-873の消費電力</title>
		<link>https://fefcc.net/archives/943</link>
					<comments>https://fefcc.net/archives/943#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Fri, 08 Nov 2019 05:14:41 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<category><![CDATA[消費電力]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=943</guid>

					<description><![CDATA[QNAP TS-873の消費電力をメモ ハードウェア概要 NAS QNAP TS-873-4G AMD RX-421ND、SODIMM DDR4、4NIC、HDD8ベイ 250W電源 Amazon &#124; QNAP(キューナ [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>QNAP TS-873の消費電力をメモ<span id="more-943"></span></p>
<h2>ハードウェア概要</h2>
<h3>NAS</h3>
<p>QNAP TS-873-4G<br />
AMD RX-421ND、SODIMM DDR4、4NIC、HDD8ベイ 250W電源</p>
<p>Amazon | QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU 4GBメモリ 8ベイ DTCP-IP/DLNA対応<br />
<a rel="noopener" href="https://amzn.to/34uq7oC" target="_blank">https://amzn.to/34uq7oC</a></p>
<p>カタログ値<br />
HDDスリープモード：36.43W<br />
通常時：70.26W（8 x 2TB HDD取り付け時[機種記載なし]）</p>
<h3>増設用メモリ</h3>
<p>CFDのD4N2400CM-16G<br />
SODIMM DDR4-2400 16GB</p>
<p>Amazon | CFD販売 ノートPC用メモリ PC4-19200(DDR4-2400) 16GB×1枚 / 260pin / 無期限保証 / Crucial by Micron / D4N2400CM-16G<br />
<a rel="noopener" href="https://amzn.to/2NfvXV3" target="_blank">https://amzn.to/2NfvXV3</a></p>
<h3>HDD</h3>
<p>HDDはSeagate ST1000DM010 1TB 7200rpm 3.5インチ</p>
<p>カタログ値<br />
転送速度：210MB/秒<br />
キャッシュ:64MB<br />
回転数：7200RPM<br />
標準動作モード：5.3W<br />
アイドル時の平均消費電力：4.6W</p>
<p>USB3.0対応HDDケースにST1000DM010を入れて消費電力計測した結果<br />
アイドル：7W<br />
CrystalDiskMark中：9W</p>
<h2>計測について</h2>
<p>QNAP TS-873の消費電力を様々なパターンでワットチェッカーを使って計測しました</p>
<p>QTSバージョンは4.4.1.1086<br />
室温は23度<br />
ディスクスタンバイモードは無効<br />
基本的に設定は初期値のままで変更した場合は記載しています</p>
<p>QTSの仕様なのかAMD RX-421NDの仕様なのかは不明ですが<br />
TS-873はアイドル状態であっても<br />
常にCPU使用率が数%を推移しており0%になることはまずありません<br />
Intel機であれば数%程度ではそこまで計測値は変わらないのですが<br />
この機種では毎秒の計測値表示が30-38-32-33-40-35-32のように<br />
10W程度上がってすぐ下がる動きを繰り返すような動作をしているので<br />
元々の計測値に大きくブレがあることを前提にご覧ください</p>
<p>記載の数値については先ほどの30-38-32-33-40-35-32の状況だと<br />
30-40W（32W）のように変動幅と私見で落ち着く瞬間が多い数値を記載<br />
（）の中は平均値ではありません（平均だと上に引っ張られるので）</p>
<h2>計測結果</h2>
<h3>HDD本数別</h3>
<p>メモリ増設前の2GBx2構成でGbEは1本接続<br />
HDDがない場合はQTSは起動せずに<br />
HDDを入れる旨のWEB画面で停止するのでその画面で計測<br />
HDDありの場合はQTS起動後にある程度落ち着いてから計測</p>
<p>HDDなし：25W<br />
HDD1本：30-38W（32W）<br />
HDD2本：35-45W（37W）<br />
HDD3本：40-55W（44W）<br />
HDD4本：45-59W（50W）<br />
HDD5本：48-63W（51W）<br />
HDD6本：52-69W（55W）<br />
HDD7本：57-73W（60W）<br />
HDD8本：60-79W（65W）</p>
<p>4本と5本の差以外は概ねHDDカタログ値に近い5Wごと上がっています<br />
この辺りは思ったより素直な動きをしているので消費電力を計算しやすいです</p>
<p>8ベイでもSATA拡張ボードが1枚で設計されているおかげで<br />
無駄な消費電力を抑える効果が出ています</p>
<h3>CrystalDiskMark計測中</h3>
<p>メモリ増設前の2GBx2構成<br />
CrystalDiskMarkで速度計測している状態で計測しました<br />
全て暗号化シックボリューム<br />
計測項目で消費電力が変わるので（）表記はありません</p>
<p>HDD1台：45-56W<br />
HDD2台 RAID1：55-70W<br />
HDD8台 RAID6：73-98W</p>
<p>この計測はディスクの消費電力増よりCPU負荷での消費電力増の割合が高いです</p>
<p>HDD2台の方はCPU使用率最大で40%ぐらいまで一時的に上がりますが<br />
HDD8台 RAID6の方は書き込み速度が落ちるせいか最大で20%ぐらいで済みます<br />
使うディスク性能によってCPU負荷が変わり消費電力も変わります</p>
<p>暗号化の有無でどの程度CPU使用率が違うのかはこちらの記事を参考にしてください</p>
<p>TS-873で大容量ファイルを転送した際のCPU・メモリ消費 | fefcc.net<br />
<a href="https://fefcc.net/archives/890">https://fefcc.net/archives/890</a></p>
<h3>LANポート数別</h3>
<p>こちらもメモリ増設前の2GBx2構成<br />
HDDなしの状態は計測値も変動がなく比較しやすいのでGbEの本数を変えて計測しました<br />
リンクは全てGbEです</p>
<p>LAN1本：25W<br />
LAN2本：25-26W<br />
LAN3本：26W<br />
LAN4本：26-27W</p>
<p>大体0.5Wごとに上がっているような感じでした<br />
ちなみにIntel NICです</p>
<h3>メモリ枚数別</h3>
<p>16GBを4枚増設したついでに枚数別の計測をしました<br />
こちらもLANポート同様にHDDなし状態で計測</p>
<p>メモリ1枚：25W<br />
メモリ2枚：25W<br />
メモリ3枚：26W<br />
メモリ4枚：27W</p>
<p>メモリ2枚と4枚時はデュアルチャンネル構成になります</p>
<p>ちなみに起動時間もメモリ枚数によってチェックシーケンスで時間がかかるせいか<br />
枚数が多いほど時間がかかりました</p>
<p>メモリ1枚：4分35秒<br />
メモリ2枚：4分40秒<br />
メモリ3枚：未計測<br />
メモリ4枚：4分55秒</p>
<h2>最後に</h2>
<p>ディスクスタンバイモードに入ったときの計測をしたかったのですが<br />
全然入らないので計測できませんでした</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/943/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QNAP Virtualization Stationのアカウント管理を試す</title>
		<link>https://fefcc.net/archives/941</link>
					<comments>https://fefcc.net/archives/941#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Fri, 08 Nov 2019 00:42:04 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=941</guid>

					<description><![CDATA[QNAP Virtualization Stationのアカウント管理を試してみました 最初に Virtualization StationはQNAP NAS上で使えるKVMで SynologyでいうとVirtual M [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>QNAP Virtualization Stationのアカウント管理を試してみました<span id="more-941"></span></p>
<h2>最初に</h2>
<p>Virtualization StationはQNAP NAS上で使えるKVMで<br />
SynologyでいうとVirtual Machine Manager<br />
VMwareでいうESXiみたいな仮想マシンを動かすソフトウェアです</p>
<p>今回はQNAPのVirtualization Stationにあるアカウント管理を<br />
実際に試してみました</p>
<p>QNAP NASのOSであるQTS上のアカウントとは別に管理されていて<br />
Virtualization Stationのみで機能するアカウント管理になります</p>
<h2>アカウント登録</h2>
<p>QTS上からVirtualization Stationの管理画面を開いて「アカウント管理」へ移動<br />
<a href="https://fefcc.net/files/2019/11/08/01.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/01.jpg" width="1280" height="288" /></a></p>
<p>右上にある「ユーザの作成」を選択すると入力フォームが出てきます<br />
項目は文字通りの項目ばかりで超シンプルです<br />
<a href="https://fefcc.net/files/2019/11/08/02.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/02.jpg" width="715" height="425" /></a></p>
<p>「VMのコントロール」部分がグレーアウトしているのは<br />
コントロール権限が割り当てられていないからで<br />
権限を付与すれば選択可能になります<br />
<a href="https://fefcc.net/files/2019/11/08/03.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/03.jpg" width="715" height="425" /></a></p>
<p>仮想マシン権限については別項で紹介します</p>
<p>ユーザ登録完了するとリストに表示されます<br />
コントロール権限を付与した状態だとこんな感じ<br />
権限編集やパスワード変更はユーザ名のリンクを選択<br />
ユーザ削除はチェックボックスで選択して「ユーザの削除」を選択<br />
<a href="https://fefcc.net/files/2019/11/08/04.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/04.jpg" width="1280" height="325" /></a></p>
<h2>ログイン画面</h2>
<p>QTS ログイン画面のURLはポートなしでもリダイレクトされるのでポート指定は不要ですが<br />
http://NASIP:8080/<br />
http://NASIP:8081/</p>
<p>Virtualization Station ログイン画面のURLは<br />
http://NASIP:8088/<br />
https://NASIP:8089/</p>
<p>ポート番号が微妙に違います<br />
ポート番号はVirtualization Stationの設定画面から変更可能です</p>
<p>アクセスするとこんな感じ<br />
<a href="https://fefcc.net/files/2019/11/08/05.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/05.jpg" width="1280" height="985" /></a></p>
<p>右上からログインできます<br />
<a href="https://fefcc.net/files/2019/11/08/06.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/06.jpg" width="1280" height="985" /></a></p>
<p>何も権限を渡していないユーザであれば何も表示はされません<br />
<a href="https://fefcc.net/files/2019/11/08/07.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/07.jpg" width="1280" height="985" /></a></p>
<h2>仮想マシン権限</h2>
<p>各ユーザへ付与できる各権限を紹介します</p>
<h3>コンソール権限</h3>
<h4>コントロール</h4>
<p><a href="https://fefcc.net/files/2019/11/08/08.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/08.jpg" width="715" height="170" /></a></p>
<p>VMをコントロールする権限でこれがないとあらゆる操作ができません<br />
これを有効にしないと「VMのコントロール」権限がグレーアウトになります</p>
<p>当然コントロールする為には表示できないと使えませんので表示権限は自動で付与されます</p>
<p>画像のようにコントロールのみ付与してVMのコントロールに付与しない場合は<br />
管理者が起動したVMを操作のみ可能</p>
<h5>ユーザ側の画面</h5>
<p>概要では表示権限があるのでVM01のみ表示<br />
権限のないVM02は表示されていないのがわかります<br />
<a href="https://fefcc.net/files/2019/11/08/09.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/09.jpg" width="1280" height="420" /></a></p>
<p>コンソール画面のメニュー<br />
電源や設定の権限は付与していないのでメニューにも表示されてません<br />
<a href="https://fefcc.net/files/2019/11/08/10.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/10.jpg" width="1280" height="440" /></a></p>
<p>OS上の操作は制限ありませんが<br />
VMの設定権限を付与しないとCD/DVD ROMをいじれないので<br />
ゲストツールCDボタンもありません<br />
<a href="https://fefcc.net/files/2019/11/08/11.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/11.jpg" width="660" height="470" /></a></p>
<p>コンソール画面にはスタートボタンが表示されますが<br />
電源権限がないと起動できません<br />
<a href="https://fefcc.net/files/2019/11/08/12.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/12.jpg" width="700" height="350" /></a></p>
<p>VMの操作だけさせたい場合はこの権限だけ渡せば問題なしですが<br />
OSからシャットダウンしてしまうとユーザ側で起動できないので<br />
管理者に起動を頼まないといけなくなる点に注意です</p>
<h4>表示</h4>
<p><a href="https://fefcc.net/files/2019/11/08/13.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/13.jpg" width="715" height="170" /></a></p>
<p>文字通り表示だけ許されるモードです<br />
VMは見えますがVM内のマウス・キーボードに関しては一切操作できません<br />
画面は見えるので管理者の操作を見せたい場合や<br />
モニタリング画面を共有したいだけというケースに使えます</p>
<h5>ユーザ側の画面</h5>
<p>概要のVMリストは先ほどのコントロールと同じなのでVM個別画面を紹介<br />
メニューも情報・ログしかありません（こちらもコントロールと同様の表記）<br />
VM情報の表示は可能ですので構成情報などは確認可能<br />
<a href="https://fefcc.net/files/2019/11/08/14.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/14.jpg" width="1280" height="670" /></a></p>
<p>コンソール画面のメニューは操作が許されていないので<br />
Ctrl+Alt+Delやファンクションキーのメニューが消されてます<br />
<a href="https://fefcc.net/files/2019/11/08/15.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/15.jpg" width="1280" height="345" /></a></p>
<p>表示権限のみではマウス操作もできないので<br />
コントロールと違ってOS上でシャットダウンされる心配も不要です</p>
<h3>VMのコントロール</h3>
<h4>電源</h4>
<p><a href="https://fefcc.net/files/2019/11/08/16.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/16.jpg" width="715" height="170" /></a></p>
<p>VMの電源操作に関する権限です</p>
<h5>ユーザの画面</h5>
<p>概要のVMリストでのサブメニューでも電源ボタンがでてきました<br />
<a href="https://fefcc.net/files/2019/11/08/17.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/17.jpg" width="780" height="380" /></a></p>
<p>VM個別メニューでも同様<br />
<a href="https://fefcc.net/files/2019/11/08/18.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/18.jpg" width="1280" height="700" /></a></p>
<p>コンソール画面（VM起動前）<br />
<a href="https://fefcc.net/files/2019/11/08/19.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/19.jpg" width="300" height="200" /></a></p>
<p>コンソール画面（VM起動中）<br />
<a href="https://fefcc.net/files/2019/11/08/20.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/20.jpg" width="360" height="360" /></a></p>
<p>コントロール権限を付与するときはこの電源権限も付与しないと<br />
OSフリーズ時やOS内からシャットダウンしてしまった際に<br />
強制終了や起動ができず管理者へ連絡がくることになります</p>
<h4>スナップショット</h4>
<p><a href="https://fefcc.net/files/2019/11/08/21.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/21.jpg" width="715" height="170" /></a></p>
<p>スナップショット操作を許可する権限です</p>
<h5>ユーザの画面</h5>
<p>概要のVMリストにスナップショットボタンが追加されます<br />
<a href="https://fefcc.net/files/2019/11/08/22.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/22.jpg" width="1280" height="450" /></a></p>
<p>VM個別画面も同様<br />
メニューも情報・スナップショット・ログになっています<br />
<a href="https://fefcc.net/files/2019/11/08/23.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/23.jpg" width="1280" height="700" /></a></p>
<p>スナップショット管理画面はQTS上のVMスナップショット操作と同様です<br />
<a href="https://fefcc.net/files/2019/11/08/24.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/24.jpg" width="1280" height="345" /></a></p>
<p>スナップショットに関しては全権限が付与されていて<br />
スナップショットの追加・削除も可能なので運用時はその点だけ注意です<br />
（操作ログで誰が操作したかはわかります）</p>
<h4>設定</h4>
<p><a href="https://fefcc.net/files/2019/11/08/25.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/25.jpg" width="715" height="170" /></a></p>
<p>VM設定の全メニューが利用できるようになります</p>
<h5>ユーザの画面</h5>
<p>概要のVMリスト<br />
全ての権限を付与した状態になります<br />
設定権限を付与すると設定ボタンだけでなくCD/DVDボタンも追加されます<br />
<a href="https://fefcc.net/files/2019/11/08/26.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/26.jpg" width="1280" height="400" /></a></p>
<p>VM個別画面でもアイコン追加され、メニューにも設定が追加されています<br />
CD/DVD ROMに「ゲストツールCDを挿入する」ボタンも追加されます<br />
<a href="https://fefcc.net/files/2019/11/08/27.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/27.jpg" width="1280" height="710" /></a></p>
<p>コンソール画面のメニューでもVM設定があります<br />
<a href="https://fefcc.net/files/2019/11/08/28.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/28.jpg" width="325" height="380" /></a></p>
<p>VM設定項目も同じです<br />
<a href="https://fefcc.net/files/2019/11/08/29.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/29.jpg" width="800" height="604" /></a></p>
<p>CD/DVD ROMが追加されたのでマウントアイコンも表示されます<br />
<a href="https://fefcc.net/files/2019/11/08/30.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/30.jpg" width="640" height="455" /></a></p>
<p>ところがISOマウントしようとしたところなぜか共有フォルダが見えませんでした<br />
QTS上のVirtualization Station画面では表示されるので制限されているのか原因は不明です<br />
<a href="https://fefcc.net/files/2019/11/08/31.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/31.jpg" width="540" height="455" /></a></p>
<h2>ユーザの操作ログ</h2>
<p>ユーザ側の画面でもVM個別画面にあるログ画面でVMごとの操作ログが記録を確認可能<br />
こちらは管理者画面と違ってログ消去のボタンはなし<br />
<a href="https://fefcc.net/files/2019/11/08/32.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/32.jpg" width="1280" height="295" /></a></p>
<p>この画像では電源権限がないのに電源オンを試したログと<br />
VMのキーボード設定をUSからJPへ変更した記録です</p>
<p>QTS上のVirtualization Station画面でのログ表示はこちら<br />
全VMの操作が時系列で表示されており<br />
VM操作以外にもユーザのログイン・ログアウト時間も確認可能<br />
そして右上に「すべて消去」ボタンがあります<br />
<a href="https://fefcc.net/files/2019/11/08/33.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/08/33.jpg" width="1280" height="370" /></a></p>
<p>「すべて消去」ボタンでログをクリアすると<br />
全てのログがクリアされるため管理者画面だけでなく<br />
ユーザ側の画面でもログがクリアされます</p>
<h2>その他</h2>
<h3>権限変更した場合いつ反映するか</h3>
<p>設定適用ボタンを押した時点でほぼリアルタイムで反映されていて画面リロードも不要<br />
ユーザ側では表示されている画面内で急にボタンが増えたり減ったりします</p>
<h3>複数ユーザが同じVMのコンソール画面を開くとどうなるか</h3>
<p>ブラウザ上のコンソール画面は排他制御されず同時にVMへ接続可能<br />
マウス・キーボード操作も同時に可能ですが当然ながらマウスカーソルが飛ぶことになります</p>
<h2>最後に</h2>
<p>権限自体は大枠でしか設定できず細かい権限設定ができないのが難点ですが<br />
ログイン画面にあるようにスマホやタブレットでも操作可能なので便利です</p>
<p>このサービスに限りませんがmyQNAPcloudで外部へNASを公開している場合は<br />
パスワード設定には十分注意してください</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/941/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>TS-873でVirtualization Stationの各キャッシュモードを確認</title>
		<link>https://fefcc.net/archives/933</link>
					<comments>https://fefcc.net/archives/933#respond</comments>
		
		<dc:creator><![CDATA[ネス]]></dc:creator>
		<pubDate>Thu, 07 Nov 2019 09:57:03 +0000</pubDate>
				<category><![CDATA[QNAP]]></category>
		<guid isPermaLink="false">https://fefcc.net/?p=933</guid>

					<description><![CDATA[TS-873でVirtualization Stationの各キャッシュモードを確認した記録 最初に QNAP TS-873-4G メモリを64GB化済 Amazon &#124; QNAP(キューナップ) TS-873 クアッド [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>TS-873でVirtualization Stationの各キャッシュモードを確認した記録<span id="more-933"></span></p>
<h2>最初に</h2>
<p>QNAP TS-873-4G<br />
メモリを64GB化済</p>
<p>Amazon | QNAP(キューナップ) TS-873 クアッドコア2.1 GHz CPU 4GBメモリ 8ベイ DTCP-IP/DLNA対応<br />
<a rel="noopener" href="https://amzn.to/34uq7oC" target="_blank">https://amzn.to/34uq7oC</a></p>
<p>この記事ではVirtualization StationのVM設定で<br />
ストレージ -&gt; キャッシュモードの選択肢である<br />
「None」「Writeback」「Writethrough」「Force Writeback」<br />
4種類のモードを実際に試してみました</p>
<h2>各キャッシュモードについて</h2>
<p>QNAPサイト上での説明</p>
<blockquote><p>[ライトバック] はNASページキャッシュを使用しています。NASキャッシュの容量がいっぱいになると、ディスクにすべてのキャッシュデータがライトバックされます。[ライトスルー] と比べると、[ライトバック] は転送速度に優れています。ただし、[ライトスルー] のほうが安全です。書き込みキャッシュを使用してディスクに直接データを書き込み、予想外のイベントが発生した場合にデータの損失を回避します。[なし] を選択すると、NASキャッシュが回避され、転送率の性能は [ライトバック] と [ライトスルー] の中間になります。</p></blockquote>
<p>この解説が作られたときは「Force Writeback」が登場する前だったので触れられてませんが<br />
速度は「Writeback」＞「None」＞「Writethrough」<br />
安全性は「Writethrough」＞「None」≒「Writeback」という感じです</p>
<p>「Writeback」と「Writethrough」についてはRAIDカードでもよく使うので<br />
RAIDカード方面で調べると資料がいろいろあると思います</p>
<p>「Writeback」はメモリ上でしか書き込みデータがない状態で電源が落ちると<br />
VMイメージファイルの破損に繋がる恐れがあるのでUPS環境推奨になります</p>
<h2>実際にVMで検証</h2>
<p>HDD（ST1000DM010）2台でRAID1構成<br />
ストレージプール作成し非暗号化シックボリューム内に配置<br />
HDDインターフェイスはVirtIO</p>
<h3>アイドル状態におけるCPU使用率について</h3>
<p>画像内でアイドル状態におけるCPU使用率が10%前後になっている現象について<br />
先に触れておきます</p>
<p>WindowsVMを起動 -&gt; CDM起動 -&gt; 放置して処理が落ち着くのを待つ -&gt;<br />
落ち着いたらCDM計測開始 -&gt; シャットダウン<br />
という流れで検証を行いました</p>
<p>その中でCDMを起動すると計測してなくても起動しているだけで<br />
何故かNAS側のCPU使用率が上がり<br />
CDMを終了するとNAS側のCPU使用率も落ち着くといった現象が発生<br />
VMのWindows上ではタスクマネージャーでもCPU使用率は上がっておらず理由は不明</p>
<p>前記事ではCDM起動してすぐ計測していたので気付いていませんでした</p>
<h3>None</h3>
<p>CrystalDiskMark v7.0.0fの結果（前記事と同じ画像です）<br />
<a href="https://fefcc.net/files/2019/11/07/42.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/42.jpg" width="425" height="300" /></a></p>
<h4>CPU使用率とメモリ使用率</h4>
<p>VM起動前<br />
<a href="https://fefcc.net/files/2019/11/07/47.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/47.jpg" width="1020" height="365" /></a></p>
<p>CDM計測直前<br />
<a href="https://fefcc.net/files/2019/11/07/48.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/48.jpg" width="1020" height="365" /></a></p>
<p>CDM計測後（IO待機が上がっている部分が計測中）<br />
<a href="https://fefcc.net/files/2019/11/07/49.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/49.jpg" width="1020" height="365" /></a></p>
<p>VMシャットダウン後<br />
<a href="https://fefcc.net/files/2019/11/07/50.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/50.jpg" width="1020" height="365" /></a></p>
<h4>まとめ</h4>
<p>計測中でもメモリ使用率・キャッシュ容量に変動がないので<br />
NAS側としてはキャッシュなどメモリを使用せず<br />
直で読み書きしているのがわかります</p>
<p>使用しているHDD・SSDやRAID構成に速度が素直に左右されるせいか<br />
NASローカル計測記事のように計測毎で結果が結構バラつきがある点に注意が必要<br />
（シーケンシャルで50MB/s程度の誤差あり）</p>
<p>VM割り当てメモリ容量以外はメモリを消費しないので<br />
搭載メモリが少ないNASでもSMBサービスなどに影響しにくく<br />
VMシャットダウン後も綺麗にリソースが戻るので<br />
Noneで満足な速度が出る環境であればこれがベストと思います</p>
<h3>Writeback</h3>
<p>CrystalDiskMark v7.0.0fの結果<br />
<a href="https://fefcc.net/files/2019/11/07/51.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/51.jpg" width="570" height="410" /></a></p>
<h4>CPU使用率とメモリ使用率</h4>
<p>最初の2画像が直前の別VM分も映っていて紛らわしくてすいません</p>
<p>VM起動前<br />
<a href="https://fefcc.net/files/2019/11/07/52.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/52.jpg" width="1020" height="365" /></a></p>
<p>CDM計測直前（左のIO待機の山は関係ありません）<br />
<a href="https://fefcc.net/files/2019/11/07/53.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/53.jpg" width="1020" height="365" /></a></p>
<p>CDM計測後<br />
計測開始ポイントは左のシステムグラフが上がっているところ<br />
メモリ使用率もキャッシュグラフが上がっています<br />
<a href="https://fefcc.net/files/2019/11/07/54.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/54.jpg" width="1020" height="365" /></a></p>
<p>VMシャットダウン後<br />
<a href="https://fefcc.net/files/2019/11/07/55.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/55.jpg" width="1020" height="365" /></a></p>
<h4>まとめ</h4>
<p>Noneと違ってVM起動前からCDM計測直前までの間（OS起動の読み書き）だけで<br />
キャッシュ値が400MBから2.6GBまで増加します</p>
<p>CDM計測設定が1GB計測なのでCDM計測後に更に1GBのキャッシュ増加も確認できます<br />
もちろんキャッシュ枠なのでVMシャットダウン後もすぐには解放はされません</p>
<p>VM割り当て分+キャッシュ領域が必要でメモリ消費量は多く<br />
キャッシュ領域が不足していれば逆効果になる場合もありますが<br />
メモリをフル活用する分、データがヒットすればかなりスピードは向上します</p>
<p>当然ながら仕組み上、メモリにないデータには効果はありません</p>
<p>CDM計測中でも実際のIOまでにラグがあるので結果的にIO待機のピーク値が低く済んでいて<br />
NAS側のメモリ量に余裕があって遅いHDDをブーストしたい時には選択肢になるでしょう</p>
<p>ただ停電時などにデータ損失・VM丸ごと破損のリスクが高いので<br />
UPSやバックアップしながらの運用が必要になります</p>
<h3>Writethrough</h3>
<p>CrystalDiskMark v7.0.0fの結果<br />
<a href="https://fefcc.net/files/2019/11/07/56.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/56.jpg" width="570" height="410" /></a></p>
<h4>CPU使用率とメモリ使用率</h4>
<p>VM起動前<br />
<a href="https://fefcc.net/files/2019/11/07/57.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/57.jpg" width="1020" height="365" /></a></p>
<p>CDM計測直前<br />
<a href="https://fefcc.net/files/2019/11/07/58.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/58.jpg" width="1020" height="365" /></a></p>
<p>CDM計測後<br />
<a href="https://fefcc.net/files/2019/11/07/59.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/59.jpg" width="1020" height="365" /></a></p>
<p>VMシャットダウン後<br />
<a href="https://fefcc.net/files/2019/11/07/60.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/60.jpg" width="1020" height="365" /></a></p>
<h4>まとめ</h4>
<p>書き込みをすぐ確実に処理する仕組み上、書き込み速度はかなり遅いですが<br />
Noneと違ってキャッシュ領域は使用するので書き込んだデータもキャッシュに残ります<br />
なのでCDMのようにテストデータを作ってすぐ利用するような用途ではかなり有効です</p>
<p>CDM計測後の画像を見てもIO待機を見ればCDMの動きがよくわかり<br />
最初のIO待機が読み込みテスト用のテストデータ生成<br />
後ろの4つ連続するIO待機が各書き込み計測中になります</p>
<p>NAS側のメモリ量に余裕があって読み込みデータが多いWEBサーバなどのVM向け</p>
<h3>Force Writeback</h3>
<p>キャッシュモードを変更しようとするとForce Writebackのみ警告が表示されます<br />
<a href="https://fefcc.net/files/2019/11/07/61.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/61.jpg" width="440" height="240" /></a></p>
<p>CrystalDiskMark v7.0.0fの結果<br />
<a href="https://fefcc.net/files/2019/11/07/62.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/62.jpg" width="570" height="410" /></a></p>
<h4>CPU使用率とメモリ使用率</h4>
<p>VM起動前<br />
<a href="https://fefcc.net/files/2019/11/07/63.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/63.jpg" width="1020" height="365" /></a></p>
<p>CDM計測直前<br />
<a href="https://fefcc.net/files/2019/11/07/64.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/64.jpg" width="1020" height="365" /></a></p>
<p>CDM計測後<br />
<a href="https://fefcc.net/files/2019/11/07/65.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/65.jpg" width="1020" height="365" /></a></p>
<p>VMシャットダウン後<br />
<a href="https://fefcc.net/files/2019/11/07/66.jpg"><img decoding="async" loading="lazy" class="alignnone size-medium" src="https://fefcc.net/files/2019/11/07/66.jpg" width="1020" height="365" /></a></p>
<h4>まとめ</h4>
<p>Force Writebackは2019年1月に追加されたばかりの機能ということもあり<br />
資料がなく安定性やリスクについての情報が見当たらず判断が難しいですが<br />
パフォーマンス最優先というだけあってWritebackより高速なので<br />
せっかくリスクを許容するならWritebackよりこっちでもいい気がします</p>
<h2>最後に</h2>
<p>CrystalDiskMarkではかなり高速化してますが<br />
全てのデータが高速化するわけではなく<br />
これらはあくまでキャッシュデータだけが高速化する話ですので<br />
それ以外のデータは全てストレージプールの構成内容によって上限速度が決まります</p>
<p>速度を求めるVMであれば根本をSSD化することをまず考えましょう</p>
<p>QNAP機の場合はSMBはもちろんのこと、いろんなアプリでメモリを使うでしょうから<br />
キャッシュ領域が不足すると他のアプリに影響するのでその点もお忘れなく</p>
<p>キャッシュ領域はNAS再起動はもちろんQboostでいつでも解放できます</p>
<p>VM用途によって効果は全然違いますしこの設定はすぐに変更できますので<br />
まずはお試しあれ</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fefcc.net/archives/933/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
