カテゴリー別アーカイブ: データセンター

複雑さを増すデータセンター

以下は、コンピュータワールド社のWebからの引用である。

情報化投資最適化請負人として、企業や団体のIT投資の最適化のために支援していることが端的に開設されていると思って引用した。

データセンターの大きな使命のひとつは、「安全安定運用」である。この安全安定運用を疎外する要因の大きなものが、アプリケーション・システムの複雑さだといわれている。現状を俯瞰し、複雑さを排除することで、身の丈の「低価格」で「安全安定」なデータセンターを運営することができる。

株式会社アーバーズのサービス
1.IT投資の現状俯瞰
2.ITコストの最適化
3.複雑化したIT資産の最適化


複雑さを増すデータセンター、いかにして対処するべきか
複雑さの要因とは何か、またそれが引き起こす影響とは
(2012年09月28日)
http://www.computerworld.jp/topics/603/205008

データセンターの複雑さは、コストの増加、俊敏性の低下、ひいてはダウンタイムなど、数々の好ましくない影響を企業に与える。データセンター20+ 件の複雑さを本気で軽減しようとするならば、トレーニング、標準化、そして情報ガバナンスが不可欠なのだ。データセンターの複雑さを軽減するためのベスト・プラクティスを紹介する。
Thor Olavsrud/CIO米国版

データセンターの複雑さは、コストの増加、俊敏性の低下、ひいてはダウンタイムなど、数々の好ましくない影響を企業に与える。この5年間で、組織はデータセンターを仮想化することで、複雑さを軽減し効率を上げようと努めてきた。仮想化には確かに利点がある。とはいえ、そのようなプロジェクトの多くはデータセンターの複雑さをなくすというよりも、変化させているといえる。データセンターの複雑さを本気で軽減しようとするならば、トレーニング、標準化、そして情報ガバナンスが不可欠なのだ。
「かなり多くの人が、仮想化はデータセンターにとってのペニシリンであると思っている。しかし、われわれが見たところでは、人々は仮想化に大きな投資をしている一方で、仮想化の効果を迅速に認識する洞察力を必ずしも持っていないことがある」と、米国Symantecの製品マーケティング担当ディレクター、ダニー・ミルラッド(Danny Milrad)氏は述べている。同社は先般、「2012 State of the Data Center Survey(2012年のデータセンター実態調査)」の結果を発表した。「仮想化の利点の1つは、アプリケーションの展開を非常に速くすることだが、人々はそのアプリケーションで必要なフットプリントがどれほど大きくなるかについては考えない」(ミルラッド氏)
データセンターの複雑さの要因となるビジネス・クリティカル・アプリケーション
ビジネス・クリティカル・アプリケーションの数が増加していることは、データセンター20+ 件の複雑さを助長する大きな原因となっている。Symantecの調査では、回答者の65%がこの増加をデータセンターが複雑になる原因として挙げた。Symantecは32か国2,453人のITプロフェッショナルを調査。回答者には、オペレーションと戦術的機能を担当する上級ITスタッフや、プランニングおよびITマネジメントを担当するスタッフが含まれていた。
「ファイルと印刷に関するもの以外で、ビジネス・クリティカル・アプリケーションではない最近のアプリケーションを見せてほしい。アプリケーションを複製することになれば、ストレージの使用量が増える。オンラインで提供される新しいアプリケーションは仮想化が進んでおり、予想よりはるかに多い量のデータが発生する」とミルラッド氏は言う。
そのような事態になれば、組織は壁にぶつかってしまう。「仮想化が進めば進むほど、ストレージのコストと仮想化のためのライセンスに関わるコスト、そして関連して発生するあらゆるものが、予想よりも速いスピードで増えていく。ストレージが安価であっても、予想の10倍も購入しなければならないとすれば、相当高くつくことになる」(ミルラッド氏)
データセンター20+ 件の複雑さを助長しているほかの大きな要素としては、モバイル・コンピューティング(回答者の44%が指摘)、サーバの仮想化(43%)、パブリック・クラウド(41%)などがあり、戦略的なITトレンドが広がっている。データセンター20+ 件の複雑さの影響として最も多く挙げられたのはコストの増加(47%)だったが、ほかにも俊敏性の低下(39%)、ストレージ移行にかかる時間の増加(39%)、ストレージのプロビジョニング(38%)、セキュリティ違反(35%)、ダウンタイム(35%)が挙げられた。

複雑さ:データセンター停止の大きな原因
この調査によって、一般的な組織が過去12か月の間に平均16回のデータセンター停止を経験していることが分かった。かかったコストの総額は510万ドルに達した。全体を見ると、自然災害が原因であるものが1回(コスト150万ドル)、人的エラーが4回(コスト170万ドル)、複雑さによるシステム障害が11回(コスト190万ドル)だった。
仮想化が悪いということではないが、IT部門は注意深くあり、悪影響の可能性についても準備をしておくべきだ、とミルラッド氏は慎重に指摘する。
「これはSharePoint導入の際に起きたこととよく似ている。SharePointは電力と冷却の点では悪夢だった。マーケティングや販売活動の促進という面ではそれほど高価ではなかったが、電力、冷却、そしてストレージにかかるコストは結果的に上昇した。仮想化も同じだ。IT部門は仮想化に注意を払い、インフラストラクチャの一部として管理しなければならない。スローダウンして、何をしているかを見極めるということだ」(ミルラッド氏)
調査によると、データセンターの複雑さをコントロールするための試みとして、90%の組織が情報ガバナンスを導入しているか、積極的に話し合っているという。彼らが得ようとしている利点としては、セキュリティの向上、正しい情報を正しいタイミングで容易に取得すること、情報管理とストレージのコスト削減、法的リスクおよびコンプライアンス・リスクの低減、そしてクラウドへの移行が挙げられる。
データセンターの複雑さを軽減するためのベスト・プラクティス
Symantecの別の製品マーケティング担当ディレクターであるトレヴァー・ドウニー(Trevor Daughney)氏は、次のベスト・プラクティスによって、データセンターの複雑さを軽減することを勧めている。
・プラットフォームの向こう側にあるものの可視性を上げる。ITが提供しているビジネス・サービスとそれらの依存関係をすべて理解し、ダウンタイムとコミュニケーション・エラーを減らす。
・所有しているIT資産と、その資産がどのように、また誰に使われているかを理解する。そうすることで、コストとリスクの低減に役立つ。組織は不要なサーバやストレージを購入しなくなり、チームは自分たちが使用するものについての責任を負えるようになり、企業は容量を使い果たしていないことを確認できる。
・復元SLAに適合するためのバックアップ・アプリケーションの数を減らし、資本支出、事業費、トレーニング・コストを削減する。一般的な企業は7つのバックアップ・アプリケーションを持っており、特定のデータベース向けの製品であることが多い。
・情報の急増に対処するため、常に重複排除機能を配備し、データのバックアップに関連するコストの増加を抑える。単にバックアップの重複を排除するのではない。データが大きくなりがちなExchangeやSharePointなどのアプリケーションについては、重複排除機能を持つアーカイブを置くことを検討する。
・バックアップおよび復元操作を容易にするアプライアンスを使用する。
・情報ガバナンスにおいて、経営幹部レベルの当事者意識を確立する。情報について責任を負うという文化を確立し、情報ガバナンスで保護されている状態を作り出せば、組織が取り組んでいるプロジェクト全体で相乗効果を得ることができる。

データセンターが環境に与える悪影響

http://www.zaikei.co.jp/article/20120925/114083.html

The New York Times 誌が、Power, Pollution and the Internet なる記事でデータセンターやクラウドが環境に与える影響について論じている。データセンターにおける消費電力の多さや、データセンターが使っている無駄な電力などを指摘するというものだ。記事では「世界全体のデータセンターで使われる消費電力の合計は原子力発電所 30 個分に相当する」などとし、データセンターが消費する電力は過剰である、というようなイメージを与えるものになっている。また、データセンターで使われる自家発電装置や無停電装置に使われるバッテリについても環境への影響という観点から問題視している。

ただ、CNET Japan の記事で要点がまとめられているが、結局のところはデータセンターで使われている電力のうちどのくらいが「無駄なもの」なのか、がポイントであろう。CNET の記事でも指摘されているとおり、サーバーメーカーやデータセンター企業では消費電力や環境負荷を下げる取り組みも行われている。データセンターが「環境の敵」としてやり玉に挙げられる前に、改善が進むと良いのだが。

直流給電

http://www.wdic.org/w/SCI/%E7%9B%B4%E6%B5%81%E7%B5%A6%E9%9B%BB

概要
現在、家庭に供給される電力は交流である。日本ならAC100Vである。しかし、家庭内で用いる電器製品の殆どは、内部では直流で動作している。

交流で動作する機械、たとえば洗濯機やエアコンなども、内部にはインバーターが搭載されており、交流を一旦直流に換え、その後高周波の交流にして機械を動かしている。これにより50/60Hz共用も実現した。コストは上がるが、直流モーターなどを使えば本当に直流だけ動かすことも不可能ではない。CEATEC JAPAN 2008では、TDKが「交流でないと動かないのは蛍光灯くらい」とするほど、家庭内の機器は直流が主流であり、直流給電という話が出てくることは当然の成り行きである。

蛍光灯だけは機構上交流でなければ決して動かないが、インバーターを使って交流を作れば給電自体は直流でも動作する(例えば直流1500Vが給電されている都心部の電車内の蛍光灯)。実際に現在市販されている蛍光灯器具の殆どはインバーターが使われていると考えられ、交流から一旦直流を作り、それを再び交流にしている。また、今後の普及が期待されるLED蛍光灯は、そのまま直流で動く。給電がすべて直流化しても、困ることは殆どない。

交流と直流の変換では必ず電力ロスが発生するが、この回数を減らすことでロスを低減し、効率を上げることを目的として取り組まれているのが、直流給電である。
特徴
欠点
利点が多い直流給電だが、解決不可能な欠点もいくつか存在する。

電圧変更(昇圧・降圧)が難しい
電流の開閉(遮断)が困難で、開閉でアークが発生する
電圧変更
交流はトランスを使えば電圧変更が簡単だが、直流は、直流のまま電圧を変えることができない。

家電クラスの低電圧ではDC-DCコンバーターという変換器を使うが、内部では一旦高周波の交流に変換して電圧を変え、整流して直流を出力している。

高電圧ないし大電流の場合は、それなりの大型の装置が必要となりコスト面に問題があることと、やはり一旦交流に変えることから、これがノイズ源になるという問題がある。

電流の開閉とアーク
交流は電圧が常に変わり、定期的に0Vになる瞬間がある。このため、この時を狙えば容易に電流の開閉(遮断)が出来る利点があり、扱いやすい。

対して直流の場合は電圧が常に一定で0Vになる瞬間が無いことから、電流の開閉(遮断)が難しいという欠点がある。

高電圧・大電流の場合はもちろんのことながら、家電向けに普及が見込まれているDC48V程度でもコンセントの抜き差しで火花(アーク)が発生してしまう。このため各社、外からアークが見えにくいようなカバーのついたプラグを提案している。「見なかったことにする」以外には解決方法がないということになる。
利用例
データセンターの例
現在、大々的に直流給電を受け入れ、利用されているのが、インターネットデータセンター(iDC)である。

サーバーはパーソナルコンピューターで、AC100Vを受け入れる。ただ、その前には瞬間停電を避けるため、必ずUPSが導入されている。UPSは直流で充電し、交流を出力するので、従来は次のような構造になっていた。

AC100V → [UPS (AC→DC→AC)] → AC100V → [サーバー (AC→DC)]
つまり、AC-DC変換、DC-AC変換、AC-DC変換、と三回も変換をすることになっている。各変換効率が90%だとしても、3回すれば73%にまで落ち込む計算で、27%の損失になる。

最初からDCで給電すれば変換が一回少なく済み、無駄な電力消費が1〜2割程度削減できる。UPSとサーバー間の接続もDC化したDCサーバーシステムであれば途中に交流を介する必要自体がなくなる。

この理由により、現在のiDCでは直流供給がサービスされるのが一般化している。電圧は、DC12VやDC48V程度が一般的のようである。

Googleの例
おそらく世界最大のデータベースを持ち稼働させている企業がGoogleである。

使用するコンピューターはパーソナルコンピューターだが、Googleのサーバーの場合、特注品であり、給電電圧はDC12Vのみで稼働するものが使われている。

CPUにしろ他のプロセッサーにしろ、実際にはより低い電圧で動作するが、内部で必要な電圧を作ることが可能であり、従って入力自体は12Vでも問題はない。

コンピューターは大きな電力を消費するので入力電圧が低すぎると大きな電流が流れることになり良くなく、電圧が高すぎてもよくない。バランスから、GoogleはDC12Vが最良であるとしている。

家庭向け
シャープやTDK、あるいはパナソニック(三洋電機含む)などが、太陽電池と蓄電池を組み合わせ、直流で給電するための取り組みを進めている。

電圧とコンセントの統一が最低限必要になるが、これはまだ規格が定まっていない。直流コンセントについては、TDK、パナソニックなど、複数の企業により、開発成果がCEATEC JAPANなどで展示されている。

特に良くできているパナソニックのものは、パナソニック電工の発明品が特許申請されている。

従来通り、顔に似た造形で受け入れられやすそうなデザインのこの特許では、アークが見えることを防ぐため周壁が設けられたプラグが使われる。プラグは周壁と2本(接地極付きは3本)のピンからなるオスで、壁側は周壁とピンが差し込まれるメスになっている。壁側は基本的に角の丸い四角だが、供給電圧に応じて四隅に傾斜部を形成するようになっている。6Vは右下、12Vは左下、48Vは左右両方の下に傾斜部があり、24Vには傾斜部がない。

また、SELV用は絶縁構造が簡略化されているため、ELV用とSELV用の区別も用意される。SELV用コンセントの周壁挿入溝の下中央に突起(延長溝部)が設けられ、ELV用プラグはSELV用コンセントに挿入可能だが、SELV用プラグはELV用コンセントに挿入できないようになっている。

グーグル、効率化へのこだわり

グーグル、自社設計のサーバを初公開–データセンターに見る効率化へのこだわり

文:Stephen Shankland(CNET News.com) 翻訳校正:川村インターナショナル 2009/04/06 07:30

カリフォルニア州マウンテンビュー発–Googleは、自社のコンピューティングの運用については多くを語らない。しかしGoogleは米国時間4月1日、当地で行われた、注目度が高まっているデータセンターの効率性に関するカンファレンスで、そのインターネットの力の中枢にあるハードウェアを初めて公開した。

ほとんどの企業は、DellやHewlett-Packard(HP)、IBM、Sun Microsystemsのような企業からサーバを購入している。しかしGoogleは、何十万台ものサーバを保有していて、そのサーバを稼働させることが自社の中心的な専門技術の一部だと考えており、自社独自のサーバを設計および構築している。Googleのサーバの多くを設計したBen Jai氏は、高度な技術を持つ、非常に熱心な聴衆の目の前で、現在のGoogleサーバを公開した。

Googleサーバで非常に驚くのは、サーバ1台1台が、それぞれ12Vのバッテリを備えていて、メイン電源に問題がある場合には電力を供給することだ。Googleはまた、2005年以来、同社のデータセンターが標準規格の運送用コンテナで構成されていることを初めて明らかにした。1つのコンテナには1160台のサーバが搭載され、その電力消費は250KWに達する。

おかしく聞こえるかもしれないが、数多くの参加者(膨大な数のサーバでいっぱいのデータセンターの運用を仕事にしているような人々)は、Googleが内蔵型バッテリというアプローチを採用していることだけでなく、Googleがそれを何年間も秘密にしてきたことに驚いていた。Jai氏はインタビューで、Googleはこの設計を2005年から採用しており、現在その設計は第6世代か第7世代であると述べた。

Jai氏はこの設計について、「わが社のマンハッタン計画だった」と語っている。

Googleは、エネルギー効率に非常にこだわっており、現在では、その経験のより多くを世界と共有しようとしている。Googleの運用担当バイスプレジデントのUrs Hoelzle氏は、不況が運用予算を圧迫し、環境に対する懸念が広がり、エネルギー価格は高騰、エネルギーの制約が強まるという状況で、Googleが効率性の普及活動を拡大する機は熟したと語る。

Hoelzle氏は「人々がそれに関心がなかった状況では、説き勧めようとしても恩恵はそれほどなかった」と言うが、今では人々の意識は変化している。

初公開されたGoogleのサーバデザイン"初公開されたGoogleのサーバデザイン
提供:Stephen Shankland/CNET
※クリックすると画像が拡大表示されます

 データセンターの設計や効率の測定に携わるChris Malone氏によると、Googleは、配電や冷却、さらに暖気と冷気が混じらないようにする取り組みなど、データセンターの問題にも焦点を当てているという。Googleのデータセンターは、先端技術を使用して、米環境保護庁(EPA)が2011年までに達成可能と希望しているレベルに、既に到達している。

「われわれはこれを、いくつかのイノベーションや、ベストプラクティスを適用することによって達成した。そのなかに、市場のほかの企業に利用できないものはない」(Malone氏)

なぜ内蔵型バッテリなのか

バッテリのアプローチが重要なのはなぜか。それはコストのためだ。

通常のデータセンターは、無停電電源装置(UPS)と呼ばれる、大規模な集中型マシンに依存している。これは基本的には、メインの電源に障害が発生した際に、発電機が始動するまでに動く、巨大なバッテリだ。Jai氏は、サーバに電源を組み込んだ方が安価であり、コストがサーバの数に直接比例することになるとしている。

「これは巨大な集中型UPSよりもはるかに安価だ。そのため、容量の無駄がない」(Jai氏)

効率性は、もう1つの財政面でのファクターだ。大規模なUPSの効率は92〜95%に達することができるが、これは大量の電力が無駄になることを意味している。Jai氏は、サーバに搭載されたバッテリの方が効率性が高いと言う。「われわれの実際の使用では、効率が99.9%以上であるという測定結果が得られた」(Jai氏)

Googleサーバの高さは、3.5インチ(約8.8cm)で、データセンター用語で言えば2Uである。これには、2基のプロセッサと、2基のハードドライブ、そしてGIGABYTE製マザーボードに取り付けた8つのメモリスロットがある。Jai氏によると、Googleは、Advanced Micro Devices(AMD)製とIntel製の両方のx86プロセッサを使用しており、そのバッテリ設計をネットワーク装置にも採用しているという。

効率性が重要なのは、それを向上させると電力消費コストが抑えられるためだけでなく、一般的に効率が悪いと廃熱が生じ、冷却にさらに多くのコストが必要になるからだ。

Googleサーバ後部Googleサーバ後部
提供:Stephen Shankland/CNET

かさむコスト

Googleは、サーバを驚異的な規模で運用しており、そのコストはあっという間に大きな額となる。

Jai氏は1人で大きな負担をかかえてきた。Jai氏は2003年から2005年まで、サーバ設計を行う唯一の電気エンジニアだったと言う。同氏は、ほかにも従業員が雇用されて、その仕事を分担するようになるまで、「2年半の間、1日14時間働いた」と述べている。

Googleは、内蔵バッテリの設計に関する特許を保有しているが、Hoelzle氏は「ベンダーに喜んでそれらのライセンスを供与するつもりだ」としている。

効率性に関するGoogleのこだわりを示すもう1つの例は、電源装置の設計に表れている。電源装置では、標準的な交流の電気を直流の電気に変換する。一般的な電源装置は、コンピュータに5Vと12Vの直流電力を供給する。Googleの設計では、12Vの電力のみを供給し、必要な変換はマザーボードで行う。

これによって、マザーボードには1ドルから2ドルの追加コストが生じるが、それだけの価値はある。なぜなら、電源装置が安価になるからだけでなく、電力供給装置がピーク出力に近い状態で稼働でき、はるかに効率的に稼働することになるからだ。Googleは、銅線経由で電力を伝送するには、5Vに比べて12Vの方が、効率が良い点にも注目している。

Googleはまた、電力利用効率(Power Usage Effectiveness:PUE)と呼ばれる標準で測定した、データセンターのエネルギー効率に関する新しいパフォーマンス結果を公表した。PUEは、The Green Gridという業界団体が開発した指標で、照明や冷却などの補助的なサービスと比較して、コンピューティングで直接消費される電力がどれくらいかを示すものだ。満点の1.0は、余分なコストのために消費されている電力がまったくないことを意味する。1.5は、コンピューティング用電力の半分が補助的なサービスで消費されているということだ。

効率化されるGoogleデータセンター効率化されるGoogleデータセンター
提供:Stephen Shankland/CNET

GoogleのPUEのスコアは素晴らしく低いが、Googleはこのスコアをさらに低くするために取り組んでいる。Malone氏によれば、GoogleのPUEは、2008年の第3四半期には1.21であったが、2008年第4四半期には1.20、2009年第1四半期(3月15日まで)には1.19へと減少した。

Googleの古い設備は一般的にPUEが高いとMalone氏は述べている。最も優れた設備は、1.12のスコアを記録している。Googleは、温暖な気候になると、サーバを低い温度に保つのが難しくなることに注目している。

 Googleのデータセンターコンテナに関するビデオの一場面Googleのデータセンターコンテナに関するビデオの一場面
提供:Stephen Shankland/CNET

運送用コンテナ

多くの人は一度に1台のコンピュータを購入するが、Googleの考えるスケールはかなり違っている。Jimmy Clidaras氏は、Googleのデータセンターの中枢は、標準の1AAA運送用コンテナで構成され、コンテナ1台に1160台のサーバが搭載されており、各データセンターに多数のコンテナがあることを明かした。

モジュール式データセンターはGoogle独自のものではない。Sun MicrosystemsとRackable Systemsはともに、そうしたタイプのものを販売している。しかし、Googleがモジュール式データセンターを導入したのは2005年だ。

そういっても、Googleの最初の試みはいくつかの困難をくぐり抜けてきたと、Clidaras氏は言う。例えば、最初に使ったクレーンが、実際にはコンテナ1つを持ち上げるのにも十分な大きさでないことに気づいたときなどだ。

全体的に見て、Googleの選択は、ソフトウェア、ハードウェアそして設備を含む、幅広いコスト分析によって決定されてきた。

「初期は、(検索)クエリ当たりのコストを重視していた。われわれは重視せざるを得なかった。クエリ当たりの売り上げは非常に小さい」(Hoelzle氏)

Hoelzle氏は、x86プロセッサを搭載したメインストリームサーバが唯一の選択肢だったと付け加えた。「10年前、(検索を)無料の製品として機能させるには、比較的安価なハードウェアで運用するしかなかった。それをメインフレーム上で動かすことはできない。採算が十分に取れないのだ」(Hoelzle氏)

Googleの規模での運用には、困難もあるが、明るい面もある。例えば、一定額の研究投資を、より多くのインフラストラクチャに対して適用でき、利益をより早く上げることができると、Hoelzle氏は述べている。

 Googleのモジュール式データセンターGoogleのモジュール式データセンター
提供:Stephen Shankland/CNET

 

この記事は海外CNET Networks発のニュースをシーネットネットワークスジャパン編集部が日本向けに編集したものです

IIJ、コンテナ型データセンターモジュール

IIJ、コンテナ型データセンターモジュールに関連する特許を取得
2012/09/11
斉藤 栄太郎=ITpro
http://itpro.nikkeibp.co.jp/article/NEWS/20120911/422123/

インターネットイニシアティブ(IIJ)は2012年9月11日、同社が独自開発したコンテナ型データセンターモジュール「IZmo」(イズモ)に関する特許権を8月17日に取得したことを発表した。

取得した特許(特許番号:第5064538号)は、「コンテナ内のラックの配置」に関するもので、複数のラックを壁面に対して斜めに配置することにより、通常配置(平行配置)だと作業空間を含めて3m以上になってしまうコンテナ幅(横幅)を2.5m以下に抑えることが可能になるという()。

IIJによれば、コンテナ幅の縮小によって、トレーラーなどの特殊車両ではなく通常の大型トラックによる運搬が可能となり、「特殊車両通行許可申請を簡略化できる」ことや「輸送コストを約1/3に低減できる」といったメリットが得られるとしている。

また、傾斜配置によりラックの側面に生じるスペースに、従来ラック内に収容していたコンセントバーなどの機材を設置できるため、奥行きの長いサーバーやネットワーク機器を設置する場合でも十分なスペースを確保できるようになるという。

さらに、ラック側面のスペースから冷気を取り入れることもできるようになるため、「ルーターなど側面に吸気口を持つことが多い通信機器を効率的に冷却できる」(同社)としている。

データセンターを分散配置

新しいかたちのデータセンターを日本中に分散配置しよう (2/2)

連載/データセンターの電力効率、コスト効率を上げるには(2):012年08月21日http://www.itmedia.co.jp/smartjapan/articles/1208/21/news007.html

前回はデータセンターの利用者が多くなれば、冷却用施設などを共用することによるコスト削減効果が働き、自社でサーバを抱えるよりもコスト効率が良くなるということを説明した。さらに付け加えると、日本のデータセンターの利用コストは、実は世界各国のデータセンターと比べると決して安いとは言えない。まだまだコスト削減の余地があるのだ。
[中村彰二朗/アクセンチュア,スマートジャパン]

連載第1回「自社サーバを環境性能の高いデータセンターに移設しよう」を掲載してからかなり時間がたってしまった。読者の皆さんにおわびしたい。そして、時間があるときで結構なので、もう一度第1回を読み返していただきたいと思う。第2回以降を理解して頂く上で役に立つはずだ。

第1回では企業が抱えるサーバを仮想化技術で集約して、データセンターに移設することで、日本全国の消費電力量を大きく引き下げることができるということに触れた。その結果として、企業は電力にかかるコストを大幅に削減できるだけでなく、サーバ運用にかかる手間を省くことができ、さらなるコスト削減が可能になる。

しかし第1回の末尾で指摘したように、日本におけるデータセンター利用コストは、世界各国と比べると決して安いとはいえない。コストが高くなってしまう要因はいろいろある。例えば、設計が時代遅れとなったデータセンターでは、サーバを冷却する古い設備が膨大な電力を消費して、総電力費用を跳ね上げている。

このような冷却設備を利用しているデータセンターでは、第1回で説明した環境性能指標であるPUE(Power Usage Effectiveness)値で2.0という高い値を記録していることもある。世界最先端のデータセンターのPUE値が、1.2くらいであることをかんがみると、PUE値が2.0ということは、最先端のデータセンターと比較して40%程度効率が悪いということになる。

ちなみに現在の日本の電力単価は米国の2倍以上ともいわれている。この電力単価の高さだけでも世界各国と比べて日本はデータセンター事業に向かない国になっているという見方もあるが、その前にデータセンターとして削減すべき無駄なコストに目を向けるべきである。今回は、日本のデータセンター利用コストを押し上げている要因を指摘したうえで、コストを下げる方法を提案し、解説する。

地価が高い首都圏に集中

通信ネットワーク技術が発達していなかったころは、ネットワークにつながったコンピュータといえば、金融機関が保有する大型コンピュータだった。このころは、通信ネットワーク技術が発達していなかったので、大型コンピュータは所有者である金融機関が集まる都市部にしか設置できなかった。その結果、大型コンピュータを設置する「コンピュータ・センター(計算センター)」が多数首都圏に建設された。

その後、通信ネットワーク技術は発達し、コンピュータ・センターと呼ばれていた施設はデータセンターと呼ばれるようになった。しかし、かつてのコンピュータ・センターであるデータセンターが首都圏に集中しているという事実は、通信ネットワークが発達していなかったころと変わっていない。IDC Japanの調査によれば日本のデータセンターの72%が首都圏に集中している。土地や不動産コストの高い首都圏にこれほどデータセンターが集まっているという事実は、日本のデータセンターにはまだまだ効率改善の余地がある、という示唆を与えてくれる(図1)。

NGDC_2_1.jpg図1 日本のデータセンターは首都圏に集中してしまっている(出典:IDC Japan「データセンターアウトソーシング市場の国内地域別予測」2010年)

図2は、日本のクラウド環境の世界標準化を推進する標準化団体「オープンガバメントクラウド・コンソーシアム(以下OGC)」が2010年に調査した日本におけるデータセンター事業者のコスト構造である。この調査によると、サーバ当たりの月額コストのおよそ半分は運用コストとサーバやネットワーク機器などにかかるコストだ。運用と機器にかかるコストがコスト全体の半分というのは、世界各国のデータセンターと比較すると割合として小さい。ほかの部分にかかるコストが大き過ぎることが、日本のデータセンターのコスト効率を悪化させている。

NGDC_2_2.jpg図2 日本におけるデータセンター事業者のコスト構造。インテルのクアッドコア・プロセッサを搭載したサーバ1台(消費電力は2200W)にかかる1月当たりの原価を示している。PUE 1.5のデータセンターで試算したもの(出典:オープンガバメントクラウド・コンソーシアム 2010年)

上述の運用コストとサーバやネットワーク機器にかかるコストを除く残りの半分は、発電や蓄電等の設備、データセンタービルの建設、そして広大な土地の取得もしくは土地の賃借に費やされている。一般的に建造物は35年、設備は15年で償却するものだが、コンピュータ関連機器の償却期間はもっと短い。

先に示したデータセンター事業者のサーバ当たりのコストの割合は、上記の期間で償却することを想定して算出したものだ。データセンター運用開始までにかかる初期費用を計算すると、コンピュータ関連機器にかかるコストが全体のおよそ30%、発電や蓄電等の設備、データセンタービルの建設、そして広大な土地の取得もしくは土地の賃借にかかるコストはおよそ70%にもなる。データセンターの利用コストを下げていくには、初期費用のうちコンピュータ関連機器にかかるコストを除いた70%をいかに削減していくか、という点が問題になる。

データセンターが首都圏に集中していると、障害対策が必要な場面で、担当者がすぐにサーバがある場所に駆け付けられる。これは事業者にとっても利用者にとっても安心できることのようにも思われるが、最近のデータセンターは、運用の自動化を目指して機器が構成されているので、緊急メンテナンスのために高度な技術を持つ運用要員を近隣に配置する必要はない。つまり緊急時の対応を想定したとしても、データセンターを首都圏に建てる必要はあまりない。データセンター事業に必要なネットワーク環境が首都圏と同等の費用で手に入るならば、より土地代の安い地方に移設することで、大幅なコスト削減が見込めるということだ。

莫大な建造コストが無駄になっていることも

データセンターの建物を建てるとなると、広大な土地を取得したあと、建築確認に約1年、建造に2年程度、合計で約3年もの時間がかかる。つまり、計画を立案した段階から1年以内に建築を開始したとしても、サービス提供開始まで3~4年掛かってしまう。

これほどの大きな投資案件になると、投資回収期間が長くなり、償却期間も長期となる。計画立案からフル稼働までに時間が掛かるので、投資回収期間も償却期間もそれだけ余計に掛かる。

さらに、巨額を投資しても万が一設計に失敗したりすると、建物を有効に活用できない事態に陥るリスクもある。また、建物単位でデータセンターを増設していく計画を立てるときは、注意して計画を立てないとユーザーに提供できるコンピュータリソースが不足する期間が発生してしまう。当然、その期間はビジネスの機会を損失してしまう(図3)。このような問題に対してデータセンターの形を、後述するモジュール型にすれば、ビジネスの機会を損失するリスクを回避できる。

NGDC_2_3.jpg図3 データセンターの建物を建てるときは、注意して計画を立てないと、需要に応えられるだけのコンピュータリソースを確保できない期間が発生する(出典:オープンガバメントクラウド・コンソーシアム 2010年)

さらに、設計時にコンピュータ技術が進歩する速度を見誤ると、建設期間を経たサービス開始時には最新のサーバを十分に収容できない建物になっている可能性もある。

日本では1998年にデータセンター建設ラッシュがあった。当時は、1ラック当たり3KVAという設計を立てていたが、2007年ごろに建設された比較的新しいデータセンターでは、1ラック当たり6KVAという設計になっている。

2012年現在のサーバは、マルチコアプロセッサを複数搭載している高密度設計になっており、このようなサーバでラックを満たすと20KVA以上の電力が必要になる。つまり、建物を設計したときに、ここまでサーバが進歩するということを予測できていないと、サーバを格納するためのデータセンターが最新のサーバを十分に格納できないという、本末転倒な事態が発生してしまう可能性があるのだ(図4)。

NGDC_2_4.jpg図4 建物を設計するときは、サーバでラックを満たせるように設計しなければならない(左)。コンピュータ技術が進化するスピードを見誤ると、建物が完成してもラックに十分な電力を供給できず、ラックをサーバで満たせないということが発生しうる(右)(出典:オープンガバメントクラウド・コンソーシアム 2010年)

上述のようなリスクを回避するには、必要になった時に、その時の最新サーバをフル活用できるデータセンターを短期間で作るしかない。その方法として、米国では2007年ごろからモジュール型のデータセンターが登場し始め、多くのクラウド・サービス・プロバイダーが採用している。

冷却設備や発電設備などデータセンターの設備をパッケージングしたモジュール型データセンターは、最小の初期投資で用意できる。さらに、ビジネスの拡大に伴って柔軟に拡張できるスケーラビリティも確保している。モジュール型のデータセンターの場合、建物を建てるのとは異なり、1つ1つのモジュールは数カ月でサービス提供の準備を整えられる。必要になった時に、短期間で細かい単位でコンピュータリソースを増強できるので、事業を始めるときは、必要最小限の設備投資で済ませることができるのである。

モジュール型データセンターの中で、コンテナを活用したデータセンターは、ISO規格に準拠した輸送用コンテナを利用しているというメリットもある。世界標準規格に準拠しているので、世界中の輸送網を利用して、簡単に移動させることもできるのだ。

日本の電力事情に合った最適なデータセンター基準とは

現在日本では、米国通信工業会が定めたデータセンター基準である、「TIA-942」に従ってデータセンターを建造、運営している。TIA-942にはTIER1~4の4段階のレベルがある。これは信頼性の高さを示すもので、TIER1が最も低く、TIER4が最も高いということになる。

最も信頼性の高いレベルであるTIER4に従うデータセンターでは、すべての設備を二重化して自前で保有した上で、停電対策として72時間は自家発電でデータセンターを稼働させることができる設備を持たなければならないことになっている。

この基準に従うとデータセンターは、自家発電用の重油を72時間分備蓄しなければならない。こうなると、データセンターは小規模な発電所といっても過言ではない。重厚長大な設備産業ともいえる規模だ。

米国の金融機関が利用するデータセンターは、このTIER4の基準を満たすべきとされている。日本のデータセンター業者も、米国の金融機関に利用してもらうことを狙って、TIER4の基準を満たしたデータセンターを多数作っている。しかし、これは日本の電力事情を考えると過剰設備でしかない。

ここで、米国と日本の電力事情の違いを見てみよう。米国カリフォルニア州は1990年ごろに、電力供給がいつ止まってもおかしくない電力危機に見舞われた。特に2001年の1月17日から始まった停電は、シリコンバレーのIT関連企業の経営に打撃を与え、ビジネスに電子商取引を利用する企業は、1分間の停電で2万ドルから100万ドルの損害をこうむるともいわれた。

では、日本の電力事情はどうだろうか? 東日本大震災発生前のデータだが、電気事業連合会が2007年度の世界の年間停電時間を比較したデータを公開している。これを見ると日本は米国西海岸と比べて、年間停電時間が10分の1となっている。英国と比較しても5分の1以下である。

つまり日本のデータセンターが、年間停電時間が10倍以上になる米国と同じ基準に従うことは明らかに間違いだということだ。停電時に備える設備は、日本の電力品質に即したものに軽減すべきである。そうすることによって、データセンター利用コストをまた引き下げることができる。

OGCでは日本版TIA942をすでに作成し、関係省庁に提出を済ませている。まず、政府には日本版TIA942の標準化を急いでほしいと思う。さらに、世界各国に日本版TIA942を認めてもらうように活動してほしい。世界各国に日本版TIA942を認めてもらえば、海外企業も日本版TIA942と本家のTIA942は、求める設備の内容は異なっても、それぞれ同じレベルの安全性確保を規定したものだと認識してくれるはずだ。

運用コストを下げるにはPUE値の引き下げが必要

ここまでは、データセンターに設備に掛かる無駄なコストについて解説してきた。データセンターの利用コストを下げるにはもう1つ、運用コストを下げる必要がある。

データセンター運用コストの削減は、空調設備等が消費する消費電力量をいかに下げるかという点にかかっている。現在の日本のデータセンターのPUE値平均は2.0とされている。PUE値が2.0ということは、サーバやネットワーク機器など、データセンターとしての主たる機能を構成する機器が消費する電力量と、冷却機器などサーバの運用を補助する機器が消費している電力量が同じということだ。ランニングコストを下げるには、まず世界レベルのPUE値である「1.2」を達成することを意識しなければならない。

第1回でも説明したが、日本でも冷却のために外気を積極的に活用して低いPUE値を達成したデータセンターが登場している。首都圏に集中したデータセンターを日本国中に再配置する際には、PUE値を下げることを強く意識してデータセンターを設計すべきだろう。

サーバに限らず、パソコンやスマートフォンなどといったコンピュータが普及すると、日本全国で消費する電力の総量は上がる。これらは人々の生活を豊かに、そして便利にしてくれるものだが、普及すればするほど消費電力量が上がってしまう。これはあまり望ましいこととはいえない。消費電力量の面から考えると、コンピュータをつなぐネットワークの中核であるデータセンターの消費電力量を引き下げることは、データセンター事業にかかわるすべての技術者の使命ともいえるのではないだろうか。

利用コスト引き下げのために何ができるのか

世界に通用するデータセンターを構築するためにコスト削減をしなくてはならない、というテーマで政策的議論を始めると、論点がどうしても「日本の電気料金が他国と比較して高い」という方向に向かってしまう。そして、その度に、「政府がデータセンター事業者の電力費用を助成すべき」という提言が繰り返されてきた。

しかし電気料金の話をする前に、まずは今回説明してきたように日本のデータセンターのあちこちに、まだまだ削減できるコストがあるということを認識すべきだ。助成の話をする前に、データセンターの全体設計のあり方を見直し、無駄を削除すべく改善を進めなければならない。助成の話は、改善を実施した上で、さらにコスト削減が必要だと判明した時に始めればよいのだ。

日本の事情を踏まえてデータセンターの設計を考え直して再構築することで、日本は世界を相手に競争できるデータセンターを持てるようになる。すでに、日本政府はモジュール型データセンターの普及に備え、建築法や消防法の規制を緩和することを決定し、「総合特区制度」の対象にデータセンターを盛り込んだ。データセンター事業者は、一刻も早く無駄なコストを削減し、次世代のあるべきデータセンターの実現に向けて動き出すべきだ。

第3回では、データセンターが首都圏に集中することによる弊害と、日本各地に分散させることによって得られるメリットについてさらに解説していく。

自社サーバをデータセンターに移設

自社サーバを環境性能の高いデータセンターに移設しよう (1/2)

連載/データセンターの電力効率、コスト効率を上げるには(1):2012年06月15日http://www.itmedia.co.jp/smartjapan/articles/1206/15/news005_2.html

消費電力量節減の話になると、サーバの消費電力量も問題になる。しかし、サーバは簡単には止められない。第1回では、企業でサーバを保持することによるデメリットを挙げ、自社のサーバを、環境性能の高いデータセンターに移設することで得られる効果を解説する。
[中村彰二朗/アクセンチュア,スマートジャパン]

オフィスにおける消費電力量節電策を考えるときは、空調機器と照明機器が主なターゲットとなる。これら2種類の機器が、オフィス全体の消費電力量の大部分を占めるからだ。

しかしもう一つ、オフィスにおいて大きな電力を消費している機器がある。企業情報システムを支えるサーバだ。サーバルームをいくつも用意して、大量のサーバを運用している企業もあるだろう。自社で使うコンピュータシステムのために、自社専用のデータセンターを保有している企業もある。

消費電力量削減の話になれば当然、サーバが消費する電力量も削減しようということになるだろうが、これは簡単ではない。空調機器や照明機器と異なり、簡単に止めるわけにはいかないからだ。止めてしまったら、企業活動の大部分が止まってしまう。

そこでこの連載では、専門事業者が運営するデータセンターを活用するメリットを解説していきたい。さらに、データセンターの利用コスト低下の障害となっている要因や、データセンターが首都圏に集中していることによる問題を指摘していく。

その障害や問題を取り払い、利用コストを下げていけば、日本企業だけでなく、海外に拠点を置く企業がアジアのデータセンター拠点として、日本のデータセンターを利用するということも考えられるだろう。利用者が世界規模で増加していけば、日本のデータセンター利用コストはさらに下がっていくはずだ。

第1回となる今回は、企業の情報システムを支えるサーバを環境性能の高いデータセンターに移行するメリットを解説する。

サーバルーム単位で消費電力量を節減する

サーバ単体で消費電力量を削減することは簡単ではないが、サーバルームという単位で見れば、消費電力量を節減する方法はある。サーバを冷却するための空調機器の設定温度を調節し、サーバルームの冷やし過ぎを防ぎ、空調機器が消費する電力量を減らすのだ。

サーバルームの空調機器が消費する電力量を評価する指標としては、「PUE(Power Usage Effectiveness)」が有名だ。PUE値は、サーバルームなどの設備全体の消費電力を、コンピュータやネットワーク機器が消費する電力量で割ることで算出できる。PUE値が高いほど、空調に無駄な電力を使っているということになる。空調機器を一切使わず、自然冷却だけで済ませることができれば、PUE値は1.0になる。

さらに、最新の高性能サーバを導入し、複数の古いサーバが果たしていた機能を集約するという方法もある。仮想化技術を利用して複数の仮想サーバを構築し、それぞれの仮想サーバに古いサーバ1台1台が担当していた機能を移すのだ。動作するサーバの数が減るので、確実な節電効果を期待できる。

サーバを抱えるには手間もコストもかかる

しかし、企業内のサーバルームの室温を細かく計測し、刻一刻と変わる状況に合わせて空調機器の設定温度を調整することは面倒だ。また、PUE値を追求していくと、建物の設計との兼ね合いで、広いサーバルームにごく少数のサーバしか設置できないという問題が発生する可能性もある。

サーバ運用に必要な付帯設備も問題だ。先に挙げたサーバ冷却用の空調機器のほかに、データをバックアップする機器も必要だ。さらに、停電に備えるためにUPS(無停電電源装置)も必要になる。サーバの台数が増えてくると、それに応じて多くのUPSを用意しなければならない。

しかも、UPSは停電時もサーバを運転し続けるためのものではない。一般的なUPSが停電時に電力を供給できる時間は30分程度。大規模なものならばより長時間にわたって電力を供給できるだろうが、そのような機種はかなり高価になる。一般的なUPSは、サーバを安全に停止させるために時間を稼ぐための道具にすぎないのだ。

このようにサーバだけでなく、サーバを維持するための付帯設備も電力やコストを消費する。オフィス内のサーバルームでは、サーバの冷却効率を上げるために大規模な改装をするなど、思い切った対策は打ちにくい。大規模な改装ができたとしても、かなりの費用がかかる。

環境性能の高いデータセンターへ移設しよう

電力コストの問題、付帯設備の問題、手間の問題を考えると、企業内でサーバを抱えることは割に合わないことが多分にある。そこで筆者は提言したい。「企業で抱えるサーバをデータセンターに移設することを検討しよう」と。

企業内のサーバを一掃して、データセンターに移設すると、上記で説明したサーバ運用につきまとう面倒な作業をすべて引き受けてくれる。例えば、仮想化環境を利用したいユーザーには、あらかじめ作ってある仮想サーバを貸してくれる。

データセンターは大量のサーバを一括で冷却する空調設備を備えている。外気を積極的に利用してサーバを冷やすなどの工夫で、PUE値の低減に力を入れている業者も増えてきている。

停電時の備えもしっかり整えている。自家発電設備を備えているデータセンターも多い。企業内のサーバが担っていた機能をデータセンターに移すと、空調機器やUPSなどのサーバ運用に必要な設備を、データセンターを利用しているほかの企業と共用できる。管理の手間も軽くなる。データやシステムのバックアップはどうなるのだと疑問を持つ方もいるだろうが、遠隔地にあるデータセンターにバックアップを簡単に作れるような体制を構築すればよい。この点については連載の2回目以降で解説する。

日本におけるデータセンター利用率はまだまだ低い

図1を見てほしい。日本に活動拠点を置く企業がデータセンターを利用している割合を示したものだ。2011年2月にIDC Japanが発表した調査結果によると、2011年末の時点で日本国内で動作しているサーバの総数はおよそ276万台。アクセンチュアは、国内で稼働しているサーバの年間の総消費電力は276.4億kWhにも上ると試算している。

In-House and DC図1 図1 日本におけるデータセンター利用率。自社でサーバを抱え込んでいる企業が多く、半数以上のサーバが企業が自社で抱えるデータセンター、企業内サーバルーム(インハウス)、オフィスで動作している(出典:IDC Japan)

276万台のうちデータセンター事業者が運用しているのは約94万台。割合にするとわずか34%。残りの約182万台(66%)は企業が自社で抱えて運用している。

先に説明したように、自社でサーバルームを抱えていると電力消費量節減が難しい。運用にはコストも手間もかかる。「冷やせば良い」という単純な考えでサーバルームの空調機器を運転しており、消費電力量節減のための対策を講じていないところも多い。

サーバとその付帯設備が消費する電力量を削減するには、事業者が運営するデータセンターを利用することが簡単で効果的な策であると筆者は考える。また、この活動は一企業だけで取り組んでいてはいけない。より多くの企業がデータセンターを利用し、日本におけるデータセンター利用率を高めていくことが必要だ。データセンター利用率を高めることで付帯設備を共用する効果が高まり、データセンターの利用コストが低下していくと期待できる。

また、個々の企業がサーバルームの消費電力量を削減する策を実行するよりも、大量のサーバが集まった大規模なデータセンター全体で消費電力量削減対策を打つことで、より大きな効果が期待できる。各地に点在する、消費電力量をコントロールしきれないサーバ群を集約することで、日本全体のサーバとその付帯設備が消費する電力量を最小化できる。その結果、各企業が負担するデータセンター利用費低下につながるだろう。

データセンターは日本各地に分散配置

アクセンチュアでは「データセンター分散促進」を提唱している。日本に拠点を置く各企業が、自社で保有するサーバを専門事業者が運営するデータセンターに移設することを促進させる取り組みだ。企業のサーバをデータセンターに収容しながら、仮想化技術を活用してサーバの稼働台数を減少させる。さらに、データセンターの電力利用効率を高める。加えて、データセンターを日本各地に分散配置して障害時のリスクを低減させるというものだ。

この取り組みを実現させるには、以下の4つのステップを踏む必要がある。

1つ目は「ITは所有から利用へ」。ユーザーの考え方の転換を促すのだ。データセンター利用率を上げていくために、正しい情報を発信していくことや、データセンターを利用しようとする人が不安に感じることが多いセキュリティ対策を徹底することが大切だ。

2つ目はサーバの台数(消費電力量)を大幅に削減させるために、仮想化技術を利用して複数のサーバを統合すること。

3つ目は、世界トップレベルの電力利用効率(PUE値が1.2程度)を実現するデータセンターを日本各地に再配置すること。現在、日本のデータセンターは地価が高い首都圏に集中している。地価の高さ、ビルの賃料の高さがデータセンター利用料を押し上げる要因になっている。利用コストを少しでも低減させるには、首都圏に存在するデータセンターの多くを日本各地に再配置させ、空いたスペースを一般オフィスに転用するなどの施策も欠かせない。

4つめは、日本全国に再配置した、電力利用効率が高いデータセンターを日本中の各企業が利用することの促進だ。

日本全国という規模で考えれば、大幅に電力消費量を削減できる

データセンター分散促進の取り組みを実現するために、以上で紹介した4つのステップを踏んでいけば、日本中で稼働しているサーバと、その付帯設備全体の消費電力量を大幅に下げられる。

図2は、データセンター分散促進によって期待できる消費電力節減効果の試算結果をまとめたものだ。先に紹介したように、2011年2月にIDC Japanが発表した調査結果によると、日本で動作しているサーバの総数はおよそ276万台。アクセンチュアは、すべてのサーバの合計消費電力は年間で276.4億kWhと試算している。

Integration図2 日本中のサーバをデータセンターに集約することで期待できる消費電力節減効果(出典:アクセンチュア)

このうち、企業が抱えているサーバは182万台。一方、データセンターで稼働しているサーバは約94.6万台に過ぎない。ミック経済研究所の「データセンターの消費電力とグリーンIT化の実態調査 2011年度版」によると、データセンターで稼働しているサーバの年間消費電力量は、94.5億kWhと少なめだ。日本中のサーバの年間合計消費電力量を先に示した通り276.4億kWhとすると、企業が抱えているサーバは年間に合計で181.5億kWhを消費していることになる。

まず、企業が保有するサーバを仮想化技術で統合していくことで稼働台数を75万台に減らせると見ている。これは、IDC Japanが2012年5月に発表した「国内仮想化サーバー市場予測」にある、2011年のサーバ出荷台数のうち、仮想化環境を構築するためにユーザーが購入したサーバの割合が16%というデータから推計した。仮想化技術による統合の結果、年間の消費電力量は74.9億kWhまで下げられる。

さらに、統合したサーバをデータセンターに移設する。仮想化後の企業内サーバ台数と、事業者内データセンター内のサーバ台数の合計はおよそ169万台になり、年間消費電力量は169億kWhとなる。前述の、国内におけるサーバの年間消費電力量は276.4億kWh。集中、統合によって100億kWh以上の電力を節約できる計算になる。ちなみに100億kWhは、一般家庭約280万世帯の年間電力消費量に相当する数値だ。

税制優遇や助成も考える必要あり

このように、日本全国で稼働しているサーバをデータセンターに移設することで莫大な量の電力を節約できる。しかし、仮想化という比較的新しい技術を導入することを嫌がる企業もある。動いているシステムに手を入れて、障害が発生することを恐れる企業も少なくない。

さらに、抱えているサーバをデータセンターに移行させることに抵抗を感じる企業も多い。大切なデータだからこそ、自分たちの手元においておきたいと考えるのだろう。

そこで、サーバ統合やデータセンターに取り組む企業に対して、税制上の優遇策や、助成金を用意することも考える必要もあるかもしれない。

第2回は、日本のデータセンターの利用コストが、実は世界各国と比べると決して安いとは言えないという問題を指摘し、日本のデータセンター事業者のコスト構造と、抱えている問題について解説する。

NTTコムら、東京データセンターを稼働

NTTコムら、東京データセンターを稼働

マイナビ ニュース
http://news.mynavi.jp/news/2012/08/08/027/

Veeva Systems(以下、Veeva Systems)とNTTコミュニケーションズ(以下、NTT Com)は8月7日、Veeva Systemsの東京データセンター20+ 件の稼働を開始したと発表した。

Veeva Systemsは、セールスフォース・ドットコムのForce.comと、独自開発したシステムを連携させることにより、製薬企業向けのCRMソリューションをはじめとしたクラウドサービスを提供している。


「Biz ホスティング Enterprise Cloud」のシステム概要

これまで国外に構築していたVeeva SystemsのシステムをNTT Comのグローバルクラウドサービス基盤上に新設することにより、日本の顧客は国内の通信環境でVeeva Systemsのサービスを利用できるようになる。東京データセンター20+ 件は、今後アジア太平洋地域におけるコアセンターとしての役割を担う予定。

= 考察 ==============================================

セールスフォース・ドットコムは、上記のNTTコムの東京データセンターに日本向けのクラウドサービス拠点を構築したそうだ。東京データセンターといっても、横浜にあるらしいが。これまでは、日本の利用者もアメリカのデータセンターにあるアプリケーションを利用していたため、通信回線の距離遅延が多少起こっていて、利用者から不満の声があったらしい。日本の横浜に拠点を移すことによって、日本のユーザーにとっては距離遅延が改善され、より多くのサービスを受けやすくなったのではと思っている。セールスフォースの営業マンの話では、「以前拠点がアメリカにかるころから通信は高速に行われているので、そんなに変わりません。」とおっしゃっていましたが。

各企業のビジネスのコア業務処理や財務会計など基幹システムは、まだまだ自前の環境で構築されるであろうが、営業やプロジェクト管理、稟議などの社内ワークフローは、別に自前にこだわる話ではないと思うので、今後ますますクラウドサービスへの移行が進むのではないかと考えている。

自前で構築する場合との比較では、(1)維持管理費、(2)バックアップ、(3)セキュリティ対策が上げられると思う。

1.維持管理費

セールスフォースのライセンス料は、月額1ID当り16,000円である。100ユーザー利用した場合は、月額160万円、年間で約2、000万円くらいの維持管理費となる。ただし、この中に基盤システムのハードウエアとソフトウエアの費用やバックアップ費、セキュリティ対策費など運用に関する費用も含まれる。仮に1000ユーザー利用するとした場合は、上記の金額の10倍となる。

2.バックアップ

セールスフォースの話では、バックアップはすべてアメリカのデータセンターで行っており、もし日本のデータセンターが稼動できない状態になっても、通信回線が生きていれば通信経路の変更をし、アメリカのデータセンターを引き続き利用することができるしくみとなっているようだ。

3.セキュリティ対策

この場合のセキュリティ対策とは、外部からの脅威について問うことが中心だと思うが、日々深刻化する外部からの脅威に備え、充分な投資をしているとの話であった。

上記を自前でする場合、システム基盤の費用やバックアップの方針と費用、セキュリティ方針と費用、それに運用にかかる人件費など計算できるものはすべて計算して、比較してみると、サービスレベルと価格の優越は見ることができると思う。自前で行う場合は、リスクとコストが反比例するので、何を優先するかでコストをコントロールすすことができる。

セールスフォースにアウトソースした場合は、自分のデータをどれだけ自由に使えるのかということを考慮しなければならない。最悪、セールスフォースが倒産しシステム全体が使えなくなった場合、自社の業務がストップしてしまうのでは元も子もない。どこまで機能を委ねていいかは、大きな問題である。どこまで他社を信用できるかということでもある。

そういう意味で、基幹業務システムのクラウド化というのは無理ではないかと思っている。

データセンター管理者の75%が回答、「予算不足」

Data Center Questionnaire in EU
【LSI調査】
データセンター管理者の75%が回答、「予算不足で必要なパフォーマンスが実現できない!!」
データ量は増えるが予算は増えずの厳しい現実…
(2012年07月25日)

欧州のデータセンター管理者のうち4分の3が、テクノロジーにかけられる予算が不足するなか、求められているパフォーマンス・レベルを達成できていないと感じていることがわかった。
400名以上の欧州データセンター管理者を対象にした同調査では、データセンターおよびネットワーク全般にわたるアプリケーション・パフォーマンス最適化の重要性を認識している回答者が全体の93%におよんだものの、その大半はこうした最適化を行えていないと答えた。
適切なアプリケーション・パフォーマンスを妨げている主な要因として70%が挙げたのが、ネットワークおよびストレージへのアクセスに存在するボトルネックだ。データ・トラフィックが著しく増加してインフラストラクチャに負担がかかっているため、多くのインスタンスに問題が発生しているという。反対に予算はなかなか増えないので、インフラの整備が追いつかない。
今回の調査を主導したネットワーキングおよび半導体企業LSIは、データセンターは「データの洪水が生み出したギャップ」に苦しめられていると分析している。つまり、ネットワーク・トラフィックやストレージ・キャパシティに対するニーズは年間30%以上のペースで成長しているにもかかわらず、IT予算および支出の上昇率ははるかに低く、1年でわずか5%から7%にとどまっているのである。
「結果的に、今日の爆発的なデータ増加がこれを支えるのに必要なインフラの増築ペースを大きく上回ってしまい、データセンター管理者が問題の矢面に立たされることになった」(LSI)
多くの場合、トランザクションの処理レベルに影響をおよぼすほどのパフォーマンス問題を抱えている企業は、その影響が会社の収支にも波及するおそれがあることに注意しなければならない。
LSIによれば、データセンター管理者はフラッシュ・ベースのストレージに「強い関心」を示し、SSD(solid state disk)がアプリケーション・パフォーマンスを向上させうることも理解しているという。しかし、回答者の約半数はSSDの購入予算をいまだ獲得できていない。また、データセンター管理者がSSDの採用をためらう最大の理由は、すでに明らかになっているコストだそうだ(92%が回答)。
調査対象者が列挙した、データセンターにおけるビジネス・クリティカル・アプリケーションのトップ4は、以下のとおりとなっている。
・仮想化ツール
・Microsoft Exchange
・SQL Server
・Oracleのアプリケーション
(Antony Savvas/Computerworld英国版)

= 考察 ===============================================

1.予算はなくとも新規投資はできる

既存のランニング費用を見直すことで、新規投資余力を創出し、これから必要となる機器やソフトへの投資をすることができる。情報化投資は、設備投資のひとつである。設備投資背ある以上、ある一定の収入への貢献が期待される。情報化投資は、技術革新のスピードが速いという特徴がある。そのため、投資サイクルが小刻みで、維持管理費が雪だるま的に増加する傾向を持っている。情報機器やソフトのライフサイクルに合わせて、定期的な見直しが必要である。見直しのひとつのポイントとしては、収入への貢献度という評価軸も考えられる。

2.維持管理費の評価

維持管理費はハードウエアやソフトウエア、役務に限らず、提供されているサービスレベルと価格のバランスを常に把握しておく必要がある。そうしないと、必要でもないサービスに余計な費用を支払っていることになりかねない。

3.情報化投資最適化

株式会社アーバーズでは、情報化投資最適化の一環として、データセンターの基盤を支えている維持運用費を独自の手法で見直し(現状俯瞰)、新規投資のための余力を見つけ(最適化余力診断)、維持管理費の低減を実現するサービスを展開している。ご興味のある方は、株式会社アーバーズまで。

消費電力量25%減、沖縄のデータセンター

Saving energy 25%

膨大な節電ノウハウを持つイーエムシー。その秘密に迫る
» 2012年07月24日 16時21分 更新

仕切り板で空気の流れを調節し消費電力量25%減、沖縄のデータセンター

無数のサーバが集まるデータセンターでは、サーバをいかに効率良く冷却するかということが大きなテーマとなっている。伊藤忠テクノソリューションズは、沖縄県のデータセンター業者の施設を調査し、消費電力量25%削減に成功した。

[笹田仁,スマートジャパン]
 伊藤忠テクノソリューションズ(以下、CTC)は、沖縄県でデータセンター事業を手掛けているファーストライディングテクノロジー(以下、FRT)が保有するデータセンターを調査し、消費電力量25%削減に成功したと発表した。

FRTは2011年11月から2012年3月までの間、「沖縄型グリーンIT実証実験」を実施していた。この実証実験はデータセンターに建物の中で空気の流れを制御することで、高温多湿な地域に存在するデータセンターでどれほどの省エネ効果を得られるのかを確かめるものだった。

CTCはこの実証実験に協力し、外気を活用した空調の効率、冷気と熱気の混合による冷房の効率低下、空調機の性能などについて検証したという。

検証の結果、サーバラックが集まった区画に仕切り板とカーテンを設置し、冷気と熱気を分けることで冷房効率を向上させることが最も効果的であるという結論に至った(図1)。実際に、データセンター3階の1区画(220ラック分)に仕切り板とカーテンを設置したところ、消費電力量を25%削減できたという。

図1 仕切り板とカーテンを設置したサーバラックの区画。天井近くの部分には仕切り板を設置し、その下はカーテンで覆った