クラウド&データセンター完全ガイド:特集

ITインフラ選定の際に考慮すべきテクノロジー/サービスの動向

クラウドとオンプレミスを適材適所で組み合わせ 戦略的ITインフラ選びの基本指針(Part 3)

弊社刊「クラウド&データセンター完全ガイド 2019年春号」から記事を抜粋してお届けします。「クラウド&データセンター完全ガイド」は、国内唯一のクラウド/データセンター専門誌です。クラウドサービスやデータセンターの選定・利用に携わる読者に向けて、有用な情報をタイムリーに発信しています。
発売:2019年3月29日
定価:本体2000円+税

ITの進化の速さはもはや常識化していると思われるが、最近はAI 関連技術の急速な進化や、AI関連処理の高速化というニーズに応えるためのハードウェア等の進化の成果が現われ始めており、更なる変革期を迎えることになりそうだ。将来を見据えたITインフラの選定に関しては、一体何年後の将来までを想定するのかによってその難易度が大きく変わるが、ここでは比較的最近のトレンドがどのような影響をもたらすことになるかを考えてみよう。おおよそ、3~5 年後くらいまでの予測にはなるのではないかと思われる。 text:渡邉利和

基本的なITインフラのあり方

 ITインフラの構成を考える場合、現状ではいわゆる“ハイブリッド”構成がまずは前提となると考えてよいだろう。クラウドとオンプレミスの組み合わせで、さらに複数のクラウドを適宜併用するマルチクラウド環境を想定するのがむしろ標準的な構成と言える。クラウドのみ、またはオンプレミスのみという構成をとるユーザー企業ももちろん少なからず存在するが、何らかの理由があって、あえてそういう構成を選ぶという企業が大半だろう。今や「マルチクラウドによるハイブリッド環境」が標準的、という状況になっていると考えて良い。

 また、従来オンプレミスで提供されてきた各種のアプリケーション/サービスが徐々にクラウドに移行しつつあるという動きも継続している。全体としてみれば、「クラウドをベースに、必要に応じてオンプレミスも活用する」というのが現時点での基本的なITインフラ選定の指針となるだろう。その上で、具体的なシステム構成に関してはオンプレミスであっても、クラウドの影響を受けて、従来とは違ったものが活用されるようになってきている。

 まず、クラウドの技術をオンプレミス向けに組み込んだ形のシステムと位置づけられるのがHCI(Hyper Converged Infrastructure)だ。HCIは、ストレージとしてSDS(Software-Defined Storage)を活用して、サーバー内蔵のディスクを仮想統合してストレージプールを構成する点や、スケールアウト型の分散システムである点など、クラウド的な要素を多く取り入れたアーキテクチャといえる。筐体がコンパクトで拡張方法もシンプルな分かりやすさを持つHCI製品が市場に受け入れられたことで、なかなか普及が進まなかったSDSの利用が拡大しつつあるほどで、ITインフラ分野の製品にしてはかなりの注目株となっている。

 なお、特に国内市場においては、HCIの有力な使いどころとしてVDI(Virtual Desktop Infrastructure)が注目され、特に普及の初期段階では「HCI=VDIのためのシステム」といったイメージが出来上がっていたのだが、ベンダーサイドの取り組みなどもあって適用分野は段階的に拡大しており、2018年には企業の中核的な業務アプリケーションでHCIを採用した事例が多数公表され始めている。こうした動向を受けて、HCIのメリットをVDI限定ではなく汎用的なITインフラとしてさまざまな分野で活用していこうという流れができつつある。いわば、オンプレミスでのシステム選定の際の選択肢に新たにHCIが加わった、と考えてよいだろう。

写真1:Dell EMCのHCI製品「VxRail」(出典:Dell EMC)

アプリケーションとの整合性

 クラウドの普及は、アプリケーションのアーキテクチャにも大きな変化をもたらした。現在の主流は、コンテナを活用した“マイクロサービス”型のアーキテクチャで、ユーザーの反応を見ながらこまめにアップデートを繰り返していくアジャイル開発の流れの影響もあり、シンプルな機能を実現する小サイズのコードを迅速に開発する手法が一般化している。

 コンテナ型のアプリケーションを実行するためには、プラットフォーム側にコンテナの実行環境を構築する必要があるのはいうまでもない。基本的なコンテナ実行環境はLinux上のOSSスタックとして実装されているので、サーバーのイメージを用意しておいてくれればIaaSでも構わないのだが、コンテナ環境の進化も進んでおり、現在では基本的なコンテナ環境が備えていなかった自動デプロイやスケーリング、運用自動化といった機能を実現するKubernetesが事実上の標準環境となってきている。そのため、コンテナ環境と言えばKubernetesまですべてが揃った環境を想定する例が増えており、この点からもIaaSからPaaSへとより上位レイヤのサービスへのシフトの加速要因として機能している面もあるようだ。

 デジタルトランスフォーメーション(DX)という文脈で考えた場合、ユーザーが情報収集や経済活動を行なう上での中心的な“場”は既に実店舗からスマートフォン/インターネットに移行しており、ここでユーザーに魅力的なインターフェイスを提供できるかどうかが企業活動の成否を大きく左右するようになってきている。実店舗のリニューアルは速くても数年おきにしか実施できないのが普通だが、DX時代のユーザー接点であるアプリのアップデートは、速ければ日に数回~十数回という頻度で繰り返されることもあり得ないことではない。こうした迅速性を支えるためにも、ITインフラの運用管理の省力化/低コスト化は重要な要件となってくる。単に、「安定したインフラでないとアプリを安心して稼働させられない」という話に留まらず、「アプリのことだけで手一杯なので、インフラの運用管理に手間を掛けている余力が無い」という状況に繋がってくる。従来は、既存のITインフラの運用管理がIT部門の重要な業務であり、予算の大半がここに投入されることが問題だとされてきた経緯もある。しかし、現在ではまさに競争力の源泉となるアプリ開発に重点を置くユーザー企業が増加しており、そうした企業が求めるレベルの運用管理の省力化を実現するためにもHCIの活用やIaaSからPaaSへのシフトなどが加速されつつある状況だ。

 アプリ開発の視点から言えば、実際にアプリが実行される環境で開発/テストを行なわないと、実運用時に想定外のトラブルに見舞われることになりかねないというリスクが生じる。昨今のコンテナ対応アプリの急増は、運用管理から開発/テストまで、様々な業務プロセスを丸ごとコンテナ環境上に実装する方向に駆動力を作用させる形になっているのである。

図1:Kubernetesを開発したGoogleでは、Kubernetes 環境をクラウドで提供する「Google Kubernetes Engine(GKE)」に加え、オンプレミスにも展開できる「GKE On-Prem(アルファ版)」も発表している

クラウドのイントラネット化

 今ではほとんど聞かれなくなった言葉だが、かつてはインターネットの技術を企業内ネットワークで活用する形を“イントラネット”と呼んでいた時期があった。インターネット上で活用されるサービスやアプリケーション/プロトコルなどは活用したいが、一方でパブリックなインターネットからは切り離すことでセキュリティなどの問題に対処したい、という意識から生まれたのがイントラネットだ。現在では、基本的にあらゆる企業/組織の社内ネットワークはかつてイントラネットと呼ばれたものになっていると見てよいだろう。イントラネットという言葉が使われなくなったのは、それがあまりに当たり前の存在になったためだと思われる。

 そして、パブリックなインターネット上で提供されることが大前提だったクラウドサービスも、イントラネットのようにパブリックなインターネットを経由せずに利用できるようにするという取り組みが着々と拡大しつつある。現在では、主要なクラウドサービスプロバイダーは直接接続のためのインターフェイスを提供しており、“ユーザー企業とクラウドの間に直接専用線接続を確立する”という形でのサービス利用をサポートしている。

 クラウドサービスに関しては、インターネット上に雲のような拡がりをもって存在する論理的なサービス、と見た方が分かりやすい面もあるが、逆に物理的な側面に注目した方が理解しやすくなる面もある。現在、グローバルにサービスを展開している“メガクラウド”事業者や主要なアプリケーション提供者は、ほぼ日本国内にデータセンターを準備している。とはいえ、自社専用データセンターを新規に建設したと言う話はまずない。実際には、国内に既に存在するデータセンター事業者のラックを借りて、そこでサービスを提供しているのであり、形としては一般のユーザー企業が外部に公開するためのウェブサーバーなどをオンプレミスという形で外部データセンターに置いているのと同じ構造になっているわけだ。

 この場合、ユーザー企業がクラウド事業者が使っているのと同じデータセンターにラックを借りていた場合、そのラックのシステムからクラウドサービスにアクセスするのはインターネットに出ることなく、データセンターのマシンルーム内のLANに閉じたアクセスが可能になる、ということになる。あるいは、このデータセンターのラックに置いた自社のオンプレミスシステムにアクセスするために自社オフィスとデータセンターの間を専用線で接続していたとすれば、この専用線とデータセンターの屋内LANだけを通ってクラウドサービスにもアクセスできる、という形になっているとも言える。いわば、クラウドサービスをイントラネット的に活用できる方法がある、ということになる。

 もちろん、クラウドサービス事業者とユーザー企業が同じデータセンターに収容されていることが必須ということではなく、クラウドサービス事業者のデータセンターとユーザー企業とを直接専用線で接続するとか、ユーザー企業が収容されているデータセンターがクラウド事業者のデータセンターと専用線接続を持つといった形もあり得るだろう。実際にデータセンター事業者の中には、クラウドサービス事業者のとの直接接続のためのインターフェイスを提供できることを強くアピールするところも出てきており、自社の業務関連のトラフィックがパブリックなインターネットを流れることに抵抗を感じるユーザー企業からの関心を惹きつけている。

 現実的な対策としては、ユーザー企業がそれぞれ独自にクラウドサービス事業者との間で専用線を敷設するよりも、データセンター間が専用線接続された閉域網接続に移行し、パブリックなインターネットのトラフィックとは分離される、という形になると予想される。実際にデータセンター事業者の間では、かつてのISPがIX経由以外にも事業者間で“ピアリング”を行ない、豊富な経路を確保していることを誇っていたのと同様に、相互に専用線接続を確保して“さまざまなクラウドサービスを閉域網接続で活用できる”環境の実現に注力しつつあるようだ。

図2:AWSとの閉域接続を提供するアット東京の「ATBeX ServiceLink for AWS」(出典:アット東京)。こうした、ユーザー企業とクラウドサービスの接続を提供する事業者も増えている

 こうした動きが、別途進行しつつある“データローカリゼーション(DL)”の動きと関連していくことも考えられる。DLの発想では、データを自国内に保存することが必須とされることから、自国内のデータセンターでクラウドサービスや各種アプリケーションが運用される形になる。そのため、こうしたサービスと閉域網接続が実現しやすくなるわけだ。

 クラウド普及の初期段階では、メガクラウド事業者がグローバルで展開する大規模かつ低コストなデータセンターに対し、日本国内は地価もエネルギーコストも高いことから対抗策はなく、「国内のデータセンターはもう立ちゆかない」と見る向きもあったが、実際には「クラウドならデータセンターはどこにあっても問題ない」わけではなく、特に日本では国内にデータセンターを設置しない事業者のサービスはどうしても普及ペースが落ちるという形になっているのが現状だ。今後クラウドサービスを閉域網接続で利用したいユーザー企業が増えれば、ますますデータセンターは日本国内に留めておくという流れも加速することになるだろう。

AIへの対応

 ここ数年のIT業界のトレンドを強力に推進してきたと言って過言ではない“AI技術”だが、ここに来て変化の兆候も現れているようだ。2018年後半には、機械学習/ディープラーニングの高速化のためのデバイスとして急成長を遂げたGPUの開発/提供元であるNVIDIAの株価の急落がニュースとなった。GPU以上に高性能な“AI専用プロセッサ”が各種実用化されつつあることや、同社が安価なGPUのデータセンターでの運用を禁止するライセンス変更を発表したことなど、いくつかの要因が取り沙汰されているが、GPUにかつてほどの勢いが感じられなくなりつつあるのは間違いないだろう。とはいえ、AI専用プロセッサの導入/活用はGPUほど簡単とはいかないため、現状ではユーザー企業に取ってGPUがもっとも現実的な選択肢であることには変わりはない。ただし、将来の予測が立てにくくなっていることも確かで、特に大規模な投資によって一気に膨大な処理能力を確保する、といった取り組みを計画していた企業はリスクが高まったと判断することになりそうだ。

 AI専用プロセッサは、もともとは半導体メーカーではないGoogleも開発に取り組むなど、多くの企業が参加するホットな領域に成長しており、既に実用化されたチップも複数ある。さらに、GPUではやや冴えない印象のあるインテルは、FPGA(Field Programmable Gate Array)に積極的に取り組んでおり、FPGAを汎用的なハードウェアアクセラレータとして活用する方向を打ち出している。

 いわば、AIという新しい用途がハードウェア/プロセッサのレベルで急速な進化を促した形だ。このため、現状は先の見通しが難しいタイミングとなっている。機械学習/ディープラーニングは大量のデータを解析することが前提となっているため、クラウドでの処理はコストがかさむ可能性がある。一方で、ハードウェアレベルでの変革が進行中の現在、ある程度の見通しが立てられる状況になるまではオンプレミスで利用するためのハードウェアプラットフォームに多額の投資を行なうのも難しい判断となる。直近ではクラウドサービスの活用が現実的かもしれないが、数年後を見越してオンプレミス処理を中心に考える必要も出てくるかもしれない。

写真2:FPGAを統合したインテルのXeonスケーラブルプロセッサ「Xeon Gold 6138P」

エッジ、OT、IoT

 ハードウェア関連の動向としては、従来ITとは異なるシステムとして独自の進化を遂げてきたOT(Operational Technology:工場や生産現場での制御/運用技術)と呼ばれる製造業などの現場での製造用機械/生産ラインの制御システムとITを接続し、一元的な管理ができるようにしていくという動きが活発化してきている。この分野にもAIの影響は大きく、製造現場でAIを活用した効率化を実現するためには、ITとOTが分断された状態ではやりにくいという事情もあってのことと思われる。いずれにしても、OTのシステムと接続できるようなインターフェイスを備えたサーバー/ PCが続々と製品化されている。ITベンダー各社にとっては「未開拓のブルーオーシャンが拓けた」という状況だろうか。当面は製造業を中心に新たな需要を喚起する形になると思われるが、日本国内では製造業の経済的な影響力は多大なものがあるため、OT分野での取り組みがさまざまな企業/組織に大きな影響を与える可能性も考えられる。

 IoTという用語が適切かどうかはともかく、生産設備や各種センサーなど、さまざまなところでデータを収集して蓄積/解析していこうという取り組みも業種業界を問わず急速に活発化している。集めたデータをどこに蓄積し、どこで解析するか、という点でデータセンターの役割は大きい一方、立ち上がりつつある“エッジ・コンピューティング”との役割分担や棲み分けに関しては、まだ明確に整理されてはいない状況だ。アーキテクチャの大きな進化がまだまだあり得ることを念頭に、現実解を探る動きがしばらくは継続することになるだろう。

【特集】データセンター/クラウドサービスの選び方2019