Webシステムアーキテクチャの地図を描く構想

この記事は第5回Webシステムアーキテクチャ研究会の予稿です。

はじめに

Webサービスにおいては、スマートフォンの普及によるアクセス増加に対してスケーラビリティを持ち、個人向けだけでなく企業向けサービスの可用性の要求に耐えられるようなシステム設計が必要とされている。 さらに、Webサービスが人々の生活に浸透したために、Webサービス事業者はサービスを長期間運用することが当たり前となっている。 その間、新機能開発、ソフトウェアの実行効率化、セキュリティ向上などを目的に、システム管理者は自身が管理するソフトウェア群を更新しつづける必要がある。

このような多様な要求を満たすために、Webサービスを開発・運用するエンジニアには、OSやデータベース、ネットワーク、分散システム、プログラミング言語処理系などの情報工学における広範囲の基礎知識と、ミドルウェア、オペレーション自動化のためのソフトウェア、クラウドサービスなどを駆使するための知識が必要となる。 さらに、これらの知識を組み合わせ1つのシステムを構築し、運用していくための技術が必要となる。 以上のように、大学の教科書にあるような古典的な情報工学の基礎知識と現場でのボトムアップな応用知識の両方とその組み合わせが必要となり、既存の教科書だけでは学べないため、体系立てて学ぶことが難しくなっている。 そこで、Webシステム開発・運用の現場の経験を踏まえつつ、生きた知識の地図をつくることが重要となる。

しかし、従来の情報工学の教科書では、情報工学における複数の分野の知識を組み合わせてシステムを構成する手法そのものは記述されていない。 また、Webサービス開発と運用の現場では、情報工学の知識があっても、未経験でも理解できるような形で現場の経験が言語化されていない。 言語化されていたとしても、Web上のブログ記事やスライド資料などでは、断片的であったり、特定の実装や個別の経験に依存した情報となっていることも多い。 類似の問題意識を書籍『Infrastructure As Code』1の冒頭で著者は次のように述べている。

コードとしてインフラストラクチャを管理するという考え方は、従来のインフラストラクチャ管理とは大きく異なる。 私は、この転換をどのように進めたらよいかがわからず苦労しているチームをたくさん見てきた。 しかし、これらのツールを効果的に使うためのアイデア、パターン、プラクティスは、カンファレンスの講演、ブログポスト、個別の論文に散らばっている。

このような問題意識を解決するために、今紹介した『Infrastructure As Code』、『SRE - サイトリライアビリティエンジニアリング』、『詳解システム・パフォーマンス』、『データ指向アプリケーションデザイン』などの、システム開発・運用の現場の経験を盛り込んだ上で体系化した書籍がある。 しかし、Webシステムアーキテクチャに必要な技術要素を網羅するためには,これらの複数の体系を組み合わせる必要がある したがって、どの体系がWebシステムアーキテクチャに必要かが自明でないという課題と、 既存の体系同士の関連性が自明でないという課題がある。

そこで、この研究では、Webシステムアーキテクチャの初学者が,経験による帰納的学習に加えて,体系からの演繹的学習が可能となることを目指す。 さらに、Webシステムアーキテクチャ分野で新しい技術を研究する場合に,体系から複数のアイデアの組み合わせを発見可能とする。 システム分野は、多数の既存知識を組み合わせることが前提となるため、既存の体系を無視して、新たに体系を組み上げることは、その知識の総量から現実的ではない。 そこで、既存の地図(体系)を描き、つなぎ合わせて、どの方向にどれだけ歩くと何にたどり着くかが分かればよい。 そのためには、次の手順で地図を描いていく。

  1. 地図の中心点をとる => 今回はyuukiの関心の中心点であるSRE、すなわち信頼性の制御を選択
  2. 既存の体系(基礎知識体系と応用知識体系)を地図に描く
  3. 地図の中心点からの関連性が不明であったり空白の領地を見つけてそれらを明らかにする

その結果、ソフトウェアアーキテクチャやネットワーク・プロトコル設計など隣の分野から、SREの中心点まで、どのような経路をたどり、どれぐらいの技術要素を超えた先に行き着くのかを知ることができる。

関連体系

Webシステムアーキテクチャに関連する体系として、伝統的な情報工学の教科書以外に、産業界における実践知をまとめた体系がこれまでに提案されている。

SRE(Site Reliability Engineering)

SREは、信頼性(Reliability)こそがあらゆるプロダクトの基本的な機能であると考え、信頼性を軸にこれまでの運用技術を1つの分野として確立した。 書籍2「SRE サイトリライアビリティエンジニアリング」では、信頼性の定義として、文献3の"システムが求められる機能を、定められた条件の下で、定められた期間にわたり、障害を起こすことなく実行する確率"を採用している。 さらに、信頼性を定量的にSLO(Service Level Objective)として設定し、システムが求められる信頼性を達成しているかを四半期ごとなど定期的にチェックし続けることが推奨されている。 加えて、SLOと変更速度がトレードオフであることから、SLOを過剰達成せずに変更速度を向上させるために、エラーの発生量を予算消化に見たて、リスクのある変更を許容するエラーバジェットの考え方がある。 このような考え方からSREとは、コンピュータシステムの信頼性を制御し、変更速度を高める工学分野であると捉えることができる。

同書籍では、コンピュータシステムの信頼性制御するための基本要素として、次の6点が挙げられている。

  • モニタリング
  • インシデント対応
  • 変更管理
  • キャパシティプランニング
  • プロビジョニング
  • 効率とパフォーマンス

さらに、第3部にて次の図のようにシステムの信頼性をピラミッドとして組み立てることが提案されている。 モニタリングが最下層にあることから、信頼性の最も基本となるものはモニタリングであると解釈できる。 モニタリングは、対象を監視するというその特性上、対象となるシステムがある程度形になったのちに、始めて開始できる。 したがって、信頼性を構築するにはまず対象となるシステムの特性が明らかである必要があるといえる。

(Betsy Beyer, 2017, p108 図III -1サービスの信頼性の階層)

詳解システム・パフォーマンス

対象となるシステムは、Webシステムの場合は分散システムとなることがほとんどであり、Webシステムにおける分散システムは単一ホスト上のプロセスから構成される。 単一ホスト上の構成を理解するには、OSの原理とOS上で動作するアプリケーションのシステムモデルを理解する必要がある。 書籍「詳解システム・パフォーマンス」4では、OSおよびOSのコンテキストにおけるアプリケーションのパフォーマンス分析と向上手法が解説されている。

同書籍では、次の図のように、単一ホスト上のシステムソフトウェアスタックを整理した上で、オペレーティングシステム、アプリケーション、CPU、メモリ、ファイルシステム、ディスク、ネットワークの要素に分解し、システムのパフォーマンスモデルを解説している。

f:id:y_uuki:20190921181402p:plain (Brendan Gregg, 2017, p2. 図1-1 一般的なシステムソフトウェアスタック)

データ指向アプリケーションデザイン

Webシステムは演算指向のワークロードとデータ指向のワークロードの両方が求められ、とりわけソーシャルネットワークやIoTアプリケーションでは、多数の利用者やデバイスが生成する大量のデータを扱う必要がある。 書籍「データ指向アプリケーションデザイン」5では、分散システムにおける重要な3つの課題である信頼性,スケーラビリティ,メンテナンス性の3点に着目し、データ指向の分散システムを、ストレージエンジン、データを分散するときの配置手法、分散したデータの一貫性の担保手法などの観点で整理している。

Infrastructure As Code

Infrastructure As Codeは、ソフトウェア開発の実践知をITインフラストラクチャの自動化に活かすアプローチである。 書籍「Infrastructure As Code」[^4]では、Infrastructure As Codeのためのツールを次のように分類し、整理している。

  • ダイナミックインフラストラクチャプラットフォーム: インフラストラクチャの基本リソース、特に計算(サーバー)、ストレージ、ネットワークを提供、管理するために使われる。パブリック/プライベートクラウドインフラストラクチャサー ビス、仮想化、物理デバイスの自動構成/設定などが含まれる。
  • インフラストラクチャ定義ツール: サーバー、ストレージ、ネットワークリソースのアロケートや構成/設定を管理する。これらのツールは、高い水準でインフラストラクチャをプロビジョニング、構成設定する。
  • サーバー構成ツール: サーバー自体の細部を扱う。ソフトウェアパッケージ、ユーザーアカウントなど、さまざまなタイプの構成/設定が含まれる。Chef、Ansibleなどを含む。
  • インフラストラクチャサービス: インフラやアプリケーションサービスの管理を支援するツール、サービス。モニタリング、分散処理管理、ソフトウェアのデプロイなどがテーマになる。

関連体系のまとめ

これらの体系をすべて併せると、いずれもWebシステムを構成するために必要な知識の多くを網羅できる。 しかし、もともとこれらの体系はWebシステムアーキテクチャ向けではないため、単一の先行体系のみではWebシステムアーキテクチャの部分しかカバーできないことと、体系の一部が他の体系の一部と重複してしまうことが課題となる。

Webシステムアーキテクチャの分類

そこで、本研究では、Webシステムアーキテクチャを単一の体系として扱うために、関連体系を基にして、Webシステムアーキテクチャを構成する散らばった要素技術を整理し、新たな分類を提案する。 先行する各種体系から、Webシステムアーキテクチャを構成する大きなカテゴリを、次の4点に分類できる。

  • (1) アプリケーションの実行環境の構成手法: アプリケーションやミドルウェアが動作するための環境構築。ITインフラストラクチャなどとも呼ばれる。ネットワークルーティング、共有ストレージ、サーバープロビジョニング、コンテナ仮想化技術などを含む。
  • (2) 単一ホスト上のアプリケーションの構成手法: OSが提供する各種機能を利用し、アプリケーションを構成する手法。Webサーバアーキテクチャ、データベースのストレージエンジンなどを含む。
  • (3) 分散システムとしてのアプリケーションの構成手法: 可用性、スケーラビリティを確保するために複数のミドルウェアを組み合わせ、アプリケーション構成手法。3層構成、データベースの分散構成、マイクロサービス、サーバーレスアーキテクチャなどを含む。
  • (4) 構成されたアプリケーションの信頼性制御: 実行環境の上に構成されたアプリケーションの信頼性を制御し、運用するための手法。モニタリングなどを含む。

これらの分類は、それぞれが独立しているわけではなく、互いに関連している。 例えば、(4)の信頼性を制御するために、システム管理者がキャパシティプランニングを行うとすると、現在のキャパシティ消費量とこれまでの変化を知るためにモニタリングが必要となり、モニタリングをするためには、時系列データを格納するためのデータベースが必要となり、(2)と(3)の知識が必要となる。さらに、キャパシティプランニングの結果にしたがって、キャパシティを増減するためには、(1)の知識が必要となる。

今後の課題

まず、提案する体系を利用したときに,学習可能な範囲を明らかにする必要がある。 ソフトウェアアーキテクチャなどの情報工学の分野との関連性を明らかにする。 今回はWebシステムにおけるバックエンド層に着目したが、ブラウザアプリケーションなどのフロントエンド層との区別と関連性を明らかにする。 また、DevOpsに代表されるカルチャーや組織体系との関連性を明らかにする。

スライド

書誌情報

  • 著者: 坪内佑樹(*1)
  • タイトル: Webシステムアーキテクチャの地図を描く構想
  • 所属: (*1) さくらインターネット株式会社 さくらインターネット研究所
  • 研究会: 第5回Web System Architecture研究会

参考文献


  1. Kief Morris 著, 宮下剛輔 監訳、長尾高弘 訳, “Infrastructure as Code――クラウドにおけるサーバ管理の原則とプラクティス”, オライリー・ジャパン 2017.

  2. Betsy Beyer et al.編, 玉川竜司 訳, 澤田武男,et al. 監訳, “SRE サイトリライアビリティエンジニアリング――Googleの信頼性を支えるエンジニアリングチーム”, オライリー・ジャパン, 2017.

  3. Patrick O'Connor, Andre Kleyner, Practical Reliability Engineering, Wiley, 2011.

  4. Brendan Gregg 著, 西脇靖紘 監訳, 長尾高弘 訳, “詳解 システム・パフォーマンス”, オライリー・ジャパン, 2017.

  5. Martin Kleppmann著, 斉藤太郎 監訳, 玉川竜司 訳, “データ指向アプリケーションデザイン――信頼性、拡張性、保守性の高い分散システム設計の原理”, オライリー・ジャパン, 2019.

サーバーレスアーキテクチャ再考

2014年にAWS Lambdaが登場し、Functionを単位としてアプリケーションを実行する基盤をFunction as a Service(以下、FaaS)と呼ぶようになった。 そして、同時にサーバーレスアーキテクチャ、またはサーバーレスコンピューティングと呼ばれる新しいコンセプトが普及するに至った。 当初、そのコンセプトが一体何を示すかが定まっていなかったために議論が巻き起こり、今現在では一定の理解に着地し、議論が落ち着いているようにみえる。 しかし、サーバーレスという名付けが悪いということで議論が着地したようにみえていることにわずかに疑問を覚えたために、2019年の今、これらの流れを振り返ってみて、サーバーレスアーキテクチャとは何かを改めて考えてみる。

サーバーレスとの個人的関わり

サーバーレスアーキテクチャという名を僕がはじめて耳にしたのはAWS Lambdaが登場した2015年だったと思う。 当初は、ご多分に漏れず、「サーバーレス?サーバーを使わないってことはフロントエンドの話か?クライアントサイドでP2Pでもやるのかな」と思いながら、解説記事を開くと、関数だとかイベント駆動だとリアクティブだとか書かれていてなにやらよくわからないけど、とりあえずサーバーあるやん!とつっこんでしまった。 その後、僕自身はサーバーレスアーキテクチャというものにさして興味をもたずに、どうやらFaaSを利用したシステムのことをサーバーレスと呼ぶらしいという話に一旦落ち着いたようにみえた。

その後、前職で機会があり、2016年後半あたりからサーバーレスアーキテクチャに基づいて時系列データベースアプリケーションを開発したことがあった時系列データベースという概念をクラウドの技で再構築する - ゆううきブログ。 そこで、AWS LambdaやAmazon DynamoDBを使い倒し、具体的な開発や運用のノウハウを蓄積したのちに、論文にまとめることとなり、サーバーレスとは改めて何だったのかということを振り返るきっかけとなった時系列データベースの論文を書いた - ゆううきブログ

サーバーレスの既存の定義

まずここで第一に文献として挙げたいのが、CNCF(Cloud Native Computing Foundation)内のサーバーレスワーキンググループがまとめたサーバーレスコンピューティングのホワイトペーパーである。*1 このホワイトペーパーから、サーバーレスコンピューティングの定義を引用してみよう。

A serverless computing platform may provide one or both of the following:

  1. Functions-as-a-Service (FaaS), which typically provides event-driven computing. Developers run and manage application code with functions that are triggered by events or HTTP requests. Developers deploy small units of code to the FaaS, which are executed as needed as discrete actions, scaling without the need to manage servers or any other underlying infrastructure.

  2. Backend-as-a-Service (BaaS), which are third-party API-based services that replace core subsets of functionality in an application. Because those APIs are provided as a service that auto-scales and operates transparently, this appears to the developer to be serverless.

簡単にいうと、サーバーレスコンピューティングとは、FaaSとBaaSのいずれか一方か両方を指すという定義になっている。 BaaSというのは、データベースなどのアプリケーションが必要とする機能の一部をAPIを通じて利用可能なサービスとなっているものの総称である。 BaaSの例として、データベース系統であれば、Amazon DynamoDBやGoogle BigQuery、メール系統であればSendgrid、DNS系統であればAmazon Route53、認証系であればAuth0などがある。

次に、カリフォルニア大学バークレー校からArxivにて今年公開された論文"Cloud Programming Simplified: A Berkeley View on Serverless Computing"*2によると、次のように記述されており、ここでも、FaaS + BaaSの定義が採用されている。

Put simply, serverless computing = FaaS + BaaS. In our definition, for a service to be considered serverless, it must scale automatically with no need for explicit provisioning, and be billed based on usage.

さらに、AWSのサーバーレスの製品サイトによると、サーバーレスプラットフォームと称して、コンピューティングカテゴリのAWS Lambdaだけでなく、ストレージ、データストアなどのBaaSも含まれている。

既存の定義から、サーバーレスはFaaS+BaaSということでもういいじゃんということになるのだけれども、なぜこれらが「サーバーレス」といえるのかをここではもう少し掘り下げてみよう。

サーバーフルコンピューティング

まず、そもそも「サーバー」という用語が示す意味を考える。 サーバーは多義的な用語であり、少なくとも、ハードウェアとしてのサーバーとソフトウェアとしてのサーバーの2つの顔をもつ。 ここでは、データセンター内にある物理マシンと物理マシンを仮想化した仮想マシンを「マシンサーバー」とし、WebサーバーのようにOS上でネットワークソケット宛ての要求を処理するプロセスを「ネットワークサーバー」とする。

前者のマシンサーバーは、通常、コンピューティング機能としてCPU、RAMがあり、永続化機能としてのディスク、ネットワーク通信機能としてのNICといったモデル化されたハードウェアとして認識することが多い。 しかし、実際に抽象化の進んでいるWebアプリケーションのようなソフトウェアを開発していると、ハードウェアが隠蔽されているため、今書いているコードがどの程度メモリを消費して、どの程度のディスクIOPSになるのかといったことを知ることは難しい。 実際に動作させて計測しないとあたりもつけられないというところが実態だろう。 過去の経験では、アプリケーション開発者がコードを書き、SREがマシンサーバーのキャパシティを見積もるというような分担をしている場合に、SREはコードからではキャパシティの見積もりようがないので、ベンチマークして実験するか、すでに稼働している同じような性質のアプリケーションがあればそのアプリケーションがもたらすハードウェアリソース量を参考にしたりしていた。 加えて、高可用性やスケールアウトのために同一構成のサーバーを複数台用意したりする必要もある。 つまり、いくら抽象化されていても、ハードウェアを意識しないといけないということである。

後者のネットワークサーバーは常にプロセスが起動しており、特定のポート番号を占有して待ち受けている形態をとる。 常にプロセスが起動していれば、ソフトウェア開発者はメモリなどのリソースのリークを気にしなければならない。 また、ソケットを共有していない複数のネットワークサーバーが同一のポートを共有することはできないため、要求を処理しつづけながらネットワークサーバーのコードをデプロイするために、Graceful Restartのようなネットワークサーバー特有の仕組みが必要となる。 こちらも、ネットワークサーバーであることを意識する必要がある。

このように、サーバー上でソフトウェアを動作させることを意識して、プログラミングしたり、デプロイしたりすることを先程の"Cloud Programming Simplified"の論文ではサーバーフルコンピューティング(Serverful Computing)と読んでいる。

サーバーレスとはなにか

書籍「Serverlessを支える技術」 *3の表現を借りると、サーバーレスとは「サーバという単位を意識しない」ということになる。 これだけではまだちょっとよくわからないので、この考え方をマシンサーバーとネットワークサーバーのそれぞれに適用してみよう。

まず、マシンサーバーという単位を意識しないということは、マシンサーバーの個数やスペックを意識しないし、ハードウェアのリソースをどの程度消費するかということを意識しないということになる。 これは、DynamoDBやBigQueryの利用体験に近しいものがある。 DynamoDBについては、DynamoDBのインフラコストの構造と削減策 - ゆううきブログの記事で述べたように、インスタンスサイズによる課金モデルではなく、ストレージのデータ使用量とスループットを基にした課金モデルとなっている。 つまり、ハードウェアリソースの消費量ではなく、クエリの回数や保存データ量といったよりアプリケーションに近いモデルでキャパシティの見積もりが可能となる。 サーバーの個数やスペックも隠蔽されているため、自分でDynamoDB相当のデータストアを構築する場合と比べて、明らかにマシンサーバーを意識しなくてよくなっている。

次に、ネットワークサーバーを意識しないために、アプリケーションの実行単位をサーバーではなくFunctionとしたのがFaaSのアプローチである。 FaaSでは、様々なイベントをFunctionの入力として扱え、Functionプロセスがイベントを購読するモデルとなっている。 例えば、Webアプリケーションサーバー代わりに、Amazon API GatewayがHTTPリクエストを受け付けて、内部でLambda用のイベントに変換した上でLambda Functionに受け渡す。 その他、バッチサーバー代わりに、Amazon CloudWatch Eventsでイベントを発火する日にちや時刻を指定し、Lambda Functionを起動することもできる。 イベントの発火を契機にFunctionが起動するため、Function自体は通常のネットワークサーバーのように常時起動するわけではない。 Functionプロセスは一定時間起動し、連続してイベントを処理したのちに停止するため、毎回コンテナプロセスを起動するコストを低減させている。 Functionは必要なときに起動されるだけなので、事前にFunctionプロセスを何個起動するかといったキャパシティプランニングが不要である。 また、イベント駆動でのプロセス起動とイベント購読モデルであることから、イベントの流量が増加しても流量にあわせてひたすらFunctionプロセスを起動させていくだけなので、オートスケールが容易である。 これは、Functionプロセスがマシンサーバー上で動作することを意識しなくてよい点である。 ただし、現状では、Functionプロセスのメモリサイズを指定する必要があるため、マシンサーバーであることを完全に隠蔽できているわけではない。

蛇足だが、サーバーレスとはCGIであるという言説もSNS上でみたことがあるかもしれない。 CGIはWebサーバーが受け付けたHTTPリクエストを契機に任意のスクリプトを実行できるため、FaaSの特性のうち、イベントを契機にFunctionプロセスを起動するところがCGIと似ている。 ただし、CGIにはBaaSの性質は含まれないこと、扱えるイベントがHTTPのみといった当たり前のわかりやすい違いがある。 さらに、WebサーバーとCGIスクリプトは密結合であり同一ホスト上で実行されるため、CGI処理のみスケールさせるということはできない。 したがって、Webサーバーのホスト自体をスケールさせる必要があるため、マシンサーバーとして意識しなければならない。

サーバーレスにより単にサーバーを意識しないだけでなく、アプリケーション実行単位がFunctionとなった結果、Functionを糊として、各BaaSをつなぐピタゴラスイッチのような構成がとられるようになった。 例えば、BaaS上で発生するイベントをFunctionに入力し、そのFunction内で別のBaaSのAPIを叩き、さらにそのイベントを契機に別のFunctionが起動するといったものである。 そのような構成を指して、サーバーレスアーキテクチャと呼ぶこともある。 時系列データベースという概念をクラウドの技で再構築する - ゆううきブログの構成はまさにそのようになっている。 部分的に紹介すると、DynamoDBへの書き込み時にレコード単位でTTLを設定し、TTLが0になった時点で、Functionにレコード内容をイベントとして入力し、S3にPutするといった処理の流れになっている。 サーバーレスの名称からピタゴラスイッチ構成を直接想像することは難しいが、サーバーを意識しなくなった結果、少なくともWebアプリケーションのスコープでは新しい構成がみられるようになったことは、ここ数年で一番好きな技術変遷である。 ただし現状では、クラウドベンダーが独自にFaaSとBaaSを連携させているため、OSSを使って同様の構成をとることはとてもむずかしく、特定のクラウドベンダーに非依存でピタゴラスイッチ構成を実現するにはどうしたらいいかに興味を持っている。 FaaSについては基礎的なビルディングブロックを提供するKnativeや、まさにFaaSそのものを実現するOpenFaaSなどがあり、ベンダー非依存の環境が整ってきている。 しかし、FaaSとBaaSを連携するには、少なくとも、CloudEventsのようにイベントの表現を標準化することと、BaaS側ではOSSミドルウェアにイベントを発火できるように対応する必要があり、道のりは険しい。

サーバーレスの制約

さて、ここまででだいたいサーバーレスがなにかということの議論は終わったが、ではあらゆるアプリケーションをサーバーレスで設計するのがよいかというとそういうわけではない。 特にネットワークサーバーの形態をとらないことは、前述のようなメリットもある一方でデメリットもある。 その一例として、次の図に示すように、FaaSにおいて、同期的に応答しなければならないリクエストが都度やってくる場合、リクエストを1個ずつFunctionで処理することになるため、各リクエストを同一プロセスで並行処理できない。 Functionの処理のうちI/Oブロッキング時間が支配的であれば、I/Oブロッキング中にCPUは他のFunctionで利用できるがメモリは確保したままになるため、メモリ使用効率が悪く、コストが高くなってしまうという課題がある。 ちなみに、非同期の応答でよければ、FaaS内のキューにイベントを溜め込み、Functionが複数のイベントを同時に取得できるため、複数のリクエストを並行処理可能である。 この課題については、コスト効率の悪いLambdaアプリケーションの性質に関する考察 - ゆううきブログの記事で具体的なアプリケーションを例にして紹介している。

"Cloud Programming Simplified"の論文では、その他の現状のサーバーレスプラットフォームの制約を整理してまとめられている。 このように従来のサーバーフルコンピューティングではなかった制約があるため、アプリケーションの特性を見極めて、アーキテクチャを選択する必要がある。

まとめ

このエントリでは、サーバーレスアーキテクチャが主観的にどのように見えていたかから始まり、サーバーレスの既存の定義を紹介したあとに、そもそもサーバーとはなにか、サーバーレスはサーバーという単位を意識しないという意味で捉えて、サーバーレスアーキテクチャとは何だったのかを再考した。 サーバーレスという名前付けがその意図とセットで普及しなかった結果、ミスリーディングな名前となってしまったが、一周回ってこの名前もそれほど悪くはないように思えてきた、というのがこのエントリを書いた動機となった。

このエントリの下書きをLINE OpenChatで先んじて公開したところ、@tzkbさんからデータベースの文脈だとサーバーレスはどうなんでしょうねという話題になり、伝統的なデータベースでは密結合になっているバッファプールとテーブルファイルなどのデータ構造を分解して、各データ構造をBaaS上で実装してFaaSでつないで、ユーザーが書いたFunctionをフックできたり、BaaS上に任意のインデックス構造を拡張できたりするアーキテクチャにしたらおもしろいよねといって盛り上がった。 昨年論文にしたTSDBのアーキテクチャではまさにそのような分解と再構築を行っていたのだった。 https://blog.yuuk.io/entry/2018/writing-the-tsdb-paper

*1:Sarah Allen, et al., CNCF Serverless Whitepaper v1.0, https://github.com/cncf/wg-serverless/tree/master/whitepapers/serverless-overview, 2019.

*2:Eric Jonas, et al., Cloud Programming Simplified: A Berkeley View on Serverless Computing, arXiv preprint arXiv:1902.03383, 2019.

*3:Aki @ nekoruri, Serverlessを支える技術 第3版, BOOTH, 2019.

はじめて国際会議で論文発表して考えたこと

先日、アメリカのウィスコンシン州ミルウォーキーで開催された国際会議 IEEE COMPSAC 2019で時系列データベースHeteroTSDBの論文を発表してきました。

f:id:y_uuki:20190729171845p:plain

IEEE COMPSACは、IEEE内のコンピュータソフトウェア分野の分科会IEEE Computer Societyのフラグシップカンファレンスとして開催されている国際会議です。 COMPSACが対象とする分野は、ソフトウェア、ネットワーク、セキュリティ、アプリケーションなど非常に幅広く、様々なテーマの発表がありました。 COMPSACは、メインシンポジウムと併設のワークショップにより構成されており、メインシンポジウムのregular paperの採択数は63本(24.5%)、short paperの採択数は50本となっています。 投稿時にregularとshortの区別はなく、今回の我々の論文は、メインシンポジウムのshort paperとして採択されました。 一般にアカデミアの国際会議にはランク付けがあり、COREのカンファレンスランキングによると、COMPSACはA*(4%)、A(14%)に次ぐB(26%)ランクとなっています。いわゆるトップカンファレンスとは呼ばないかもしれませんが、実績として十分に認められる会議であるというように自分は認識しています。

予稿

スライド

発表内容

投稿した論文の内容自体は、昨年に国内の学会で発表したものとほぼ同じ内容になります 時系列データベースの論文を書いた - ゆううきブログ。 日本語論文の時点でページ数は8で、そのまま英語化すると8ページ弱となり、最終的にはページ数6のshort paperに収める必要があるため、もともと日本語論文にあった冗長な記述を削減しました。 その結果、元の論文と比べて、すっきりした形になったかなと思います。

投稿論文の査読の中で、実環境の運用を基にした議論となっており、読者にとって有益であるというようなコメントをいただきました。 まさに実運用から出発している研究であるため、我が意を得たりというコメントでした。 その一方で、新規性や他手法と比較した有用性の記述が弱いとの指摘もありました。 もともとこの研究は、プロダクト開発から始まっているため、どうしても新規性を強く打ち出すことは難しくなります。 また、定量的な性能を追求する研究ではなく、拡張性や互換性といった定性的な観点にフォーカスした研究であるため、定量的な評価が難しく、他の手法と比べて有用であることを実験で示すことが難しいという性質があります。 このあたりは、難しいながらも記述を工夫し、研究のまとめとしてジャーナルへ投稿する予定です。

さて、会議での口頭発表ですが、昨年の国内の発表では、論文に記述した内容を全部含めようとした結果、分量が大きくなってしまい、要点を絞れていなかったという反省がありました。 そこで、今回は序盤のIntoroductionを時系列データベースが利用される背景 => 既存のチャレンジ(性能要求) => 新しいチャレンジ(拡張性) => 新旧チャレンジの内容を満たすアーキテクチャの概要といった流れで、4ページでコンパクトに研究をまとめるように工夫してみました。 さらに、提案手法の詳細の記述が、もともとの日本語のスライドではテキスト主体になっていたため、なるべく図で表現するように改善しました。 英語のスキルは残念ながらいきなり上がったりしないので、特定の言語に依存しない工夫により、英語スキルの不足を補うように努めました。 むしろ日本語の発表だとその場のアドリブで、なんとなくごまかしてしまえることも、英語だとそうはいかないため、スキルの低い英語で発表することで、結果的に論旨を明瞭にするスキルを鍛えるきっかけになることに気づきました。

f:id:y_uuki:20190729171443p:plain
発表の様子

当日の発表では、国内の研究会で見知っている方も多いこともあって、日本の学会とさほど緊張感は変わらず臨むことができました。 発表後に(英語の)発音がうまいと言っていただいたのはうれしく思いました。 そもそも自分は、普段の日本語の発表でさえ、抑揚がないと言われがちなので、強く抑揚が求められる英語では、めちゃくちゃ平坦に聞こえてしまうだろうなと危惧していました。 そこで、事前の発表練習で自分の声を録音して、USENIX FASTやLisaの発表音声と比較しつつ、抑揚がでていない部分を発見し、強引に抑揚をつける練習をしていたりしていました。 加えて、"database"、"datapoints"、"architecture"などの自分の発表で頻出する しかし、マイクにうまく声が乗っていたなかったようで、普段手に持っていたマイクをなぜか当日はマイクスタンドに置きっぱなしにしていたのは失敗でした。 質疑応答では、たどたどしくも質問にはしっかり答えられたかなと思います。 とはいっても、いずれも日本人の先生方からの質問であったため、質問文が聞き取りやすかっただけとも言えます。

会議の様子

開催地のマーケット大学は緑のあるゆったりとした美しいキャンパスでした。 学会会場には、コーヒーやクッキーが常備され、昼食時間にはランチボックスが積まれ、棟内で自由に食べることができました。 情報処理学会がCOMPSACのスポンサーとなっている関係で、日本の研究者の方々が数多く参加されているのも印象的でした。

f:id:y_uuki:20190729171512p:plain
マーケット大学の様子

学会の対象分野自体が広いため、リサーチセッションは自分の関心領域の内容を楽しむというよりは、普段関わりのない分野の発表を聴いて見識を広めたり、英語での発表スタイルや質疑応答での言い回しを学んだりする場として活用できました。 ずっと発表を聴いているとそれはそれで疲れるので、バルコニーのベンチに座って、発表の感想について談笑していたりしました。

キーノートや特別セッションは、Wireless AIという新しい研究分野の創出、A Smart World(COMPSAC 2019のテーマ)に向けてテクノロジーが何をもたらすか、表彰された3名のトップ研究者のパネルディスカッション、IEEE Computer Societyの歴代の会長によるパネルディスカッションといった内容でした。 いずれの内容も興味深く、テクニカルな内容を楽しむというよりは、研究のあり方を考えたり、他の分野とのコラボレーションを楽しむといったもので、いずれもそこでしか聴けないであろう内容でした。 普段ならはいはいっと聞き流しそうな内容でも、こういった場に来るとちゃんと聴こうとするので現金ですね。

会議期間中にずっと考えていたのは、"Is a Smarter World a Better World? Key Questions at the Intersection of Technology, Intelligence, and Ethics"というタイトルのキーノートの中で提起されていた、我々はテクノロジーにより自分たち自身を"enhance make-decision's capacity"*1できているかという問いについてでした。 日本語では、人間の意思決定能力を高めるという意味になりますが、例えば、AIの活用により、自分の過去の情報をもとに推薦される情報のみを拠り所にすると偏りが生じて、かえって人間の意思決定能力を低下させてしまうこともあり得るが、本当にそれでいいのかという問いを投げかけるような内容だったと思います。

抽象度の高い問いなのでそのまま考えてもなかなか思考はまとまらないので、僕が専門とするSREの分野に置き換えて考えました。 例えば、今業界で起きている大きな流れは、一部のメガクラウド事業者がマネージドサービスを提供することで、短期的には利用者の仕事を削減して、利用者は空いた時間で他のことをできるようにするというものです。 しかし、この流れの先にあるものは、中央集権による技術の寡占構造とみることもできます。 提供されているマネージドサービスがあまりにも便利なために、マネージドサービスを組み合わせてできることの範囲内でしか物事を徐々に考えなくなってしまい、結果としてコンピューティングとネットワークの技術が世の中全体としては失われていく可能性もあります。 そうすると、長期的には、却って技術が発展しなくなるという仮説も考えることができます。

別のキーノートセッションでも健康状態などの個人のプライバシーの情報をクラウドに格納しておくことや医者が情報を専有していることの是非を考える話がありました。そして,これらの問題を解決するのは,個人の情報はその個人が所有するということではないかとも。 このように複数の分野で、一時的な効率のために、長期的に犠牲にしているものがあるというパターンをみてとることができます。 そして、そのパターンの中にある共通の構造として、一時的な効率のための中央集権構造と、それに対抗する分散構造のトレードオフを帰納的に見出すことができます。 ここまで考えて、さくらインターネット研究所のビジョンである超個体型データセンターを連想しました。というのは、超個体型データセンターは、中央集権構造に対するインターネットの技術階層でのアンチテーゼになっているためです。 超個体型データセンターを突き詰めて考えていくと、プライバシー、倫理、哲学などの観点からも興味深いものとして捉えることができるかもしれません。

あとがき

エンジニアでもある僕が国際会議で発表して思ったこと - 人間とウェブの未来

今では同僚であるid:matsumoto_rさんが昨年のCOMPSACで発表されたことは、当時はもちろん知っていましたが、その翌年に自分が発表することになるとは思いもしませんでした。とはいうものの、イメージしていないことは実現しないともいうので、覚えていないだけでイメージはしていたのかもしれません。2年前のIPSJ-ONEで発表したときのことを思い出しました。

セッションプログラムをみるとちょうどHeteroTSDBとFastContainerの発表が並んでいて、感慨深いものがあります。 さくらインターネットの名前で2人続けて発表したので参加者の印象にも残ったのではないかと思います。

f:id:y_uuki:20190729171636p:plain:w400

大学院の学生だったころは、国際会議で発表することはなかったどころか中退してしまったため、国際会議への発表は初めてで、単に参加すること自体も初めてでした。 そもそも海外へ赴くのは、高校時代のホームステイ研修みたいな旅行以来だったこともあり、発表よりも現地に無事に到着して滞在できるかどうかのほうが気がかりなぐらいでした。 英語学習そのもののモチベーションが低く、TOEICのリスニングの点数で平均以下しかとったことがない自分でも国際会議で英語で発表できたことは、グローバルでのアウトプットへの心理的ハードルを下げてくれました。 また、さくらインターネット研究所では、出張費用を全額サポートされるのはもちろんのこと、少なくとも研究員自身が行う手続きには面倒なことがないので、参加のためのハードルを下げてもらっています。 どちらかというと、家からあまり動きたくなくてのんびりしたい自分であっても、こうやって活動の幅が広がることは純粋に楽しいものです。

*1:decision-making capacityだったかもしれない

エッジコンピューティングに向けた分散キャッシュ技術の調査

はじめに

Webサービスの応答速度を向上させることにより,ユーザーの体験が向上することが知られている. 実際に,40%以上のWebサービスのユーザーはページの読み込みを3秒以上待てないという調査結果がある1. クラウドコンピューティングを利用し,Webサービスを提供する場合,読み込み遅延の要因は次の3つである.

  1. クラウドのデータセンター内での処理遅延
  2. エンドユーザーとデータセンター間のネットワーク転送遅延
  3. ブラウザ上でのコンテンツ表示遅延

(2)の遅延を削減し,より高速にエンドユーザーに応答を返すには,エンドユーザーの近傍で要求を処理する必要がある.

Webサービスを提供する企業は,Akamai,CloudFront,Fastlyなどの事業者が提供するCDN(Content Delivery Network)を以前より活用し,画像や動画などの静的コンテンツの配信を高速化してきた. 近年では,一度キャッシュされたデータを破棄するまでの処理時間が高速化したことにより,動的コンテンツのキャッシュにもCDNを利用することがある. さらには,単なるキャッシュを配信するだけでなく,CDNのエッジサーバ上で要求に対して任意の処理を実行できるように,エッジサーバに任意のアプリケーションを配置することが可能となるCDN Edge Workerと呼ばれるサービスが登場している. プログラミング言語処理系の制約があるものの,CDN Edge Workerとしては,AWS Lambda@Edge2,Cloudflare Workers3,fly.io4などがある.

しかし,動的コンテンツに対してCDNを適用する場合,すべてのエッジでキャッシュが無効化されるまでに遅延があり,キャッシュ間またはキャッシュとオリジンのデータとの間の一貫性が弱いという課題がある. CDN Edge Workerにおいても,アプリケーションの配置は可能であるが,データの一貫性については厳密に保証するデータストアが提供されているわけではない.

この記事では,Webアプリケーションの応答性能を向上させるために,各エッジ上でコンテンツ生成や配信に必要なデータのキャッシュをもつための分散キャッシュの関連技術を調査する.

エッジコンピューティング

CDN以外にも,エンドユーザーとクラウドのデータセンターの間に中間層を設けることにより,ネットワークレイテンシを最小化するエッジコンピューティング5が研究されている. エッジコンピューティングの研究分野では,IoT (Internet of Things),スマートシティ,仮想現実などの従来のPCやスマートフォン以外のエンドデバイスを活用するような新しいコンピューティングへの適用が主目的となっている.

エッジコンピューティング調査 - 動機と分類 - ゆううきメモ

分散キャッシュの関連技術

Webアプリケーションの読み出し性能を向上するためのキャッシュの要素技術を整理し,その特徴を述べる. 要素技術として,オブジェクトキャッシュ,クエリリザルトキャッシュ,HTTPキャッシュ,ICN(Information-Centric Networking)がある.

オブジェクトキャッシュ

オブジェクトキャッシュはアプリケーションが任意のオブジェクトをキャッシュするための機構である. オブジェクトキャッシュのためのデータストアとして,アプリケーションプロセスがネットワーク通信して利用するネットワーク型の分散キャッシュシステムと,アプリケーションプロセスと同一のメモリ空間にキャッシュデータを保持する組み込み型の分散キャッシュシステムがある.

ネットワーク型の分散キャッシュシステムとして,MemcachedやRedisが広く利用されている. これらのキャッシュシステムを複数のキャッシュノードへ負荷分散するために,ハッシュ法を利用することにより,オブジェクトのキーと分散先のキャッシュノードを紐づけし,オブジェクト単位で分散させてキャッシュノードへデータを配置する. この手法は,キャッシュノードの追加または削除時に,オブジェクトのキーとノードの紐づけが変更され,大部分のキーを再配置することにより,性能が低下するという課題をもつ. そこで,ノードの追加・削除時に,オブジェクトのキーとノードの割り当てをなるべくかえずに分散するためにコンシステントハッシュ法が利用される.

groupcache6は組み込み型のオブジェクトキャッシュであり,Go言語のライブラリとして実装されている. groupcacheは複数のノードが協調して一つのキャッシュ空間を作成可能であり,ローカルノードに当該キャッシュがなければ,ピアノードに対してフォールバックし,キャッシュを取得するようになっている. さらに,groupcacheはフォールバック後に確率的にローカルノードのキャッシュにデータを書き込み,次回以降当該オブジェクトのキャッシュはローカルノードで取得可能となる. また,ピアノードはコンシステントハッシュ法により選択されるため,ローカルでのキャッシュミス時にすべてのピアにフォールバックしなくてよい. groupcacheは更新と削除をサポートしておらず,LRUによりキャッシュが破棄されないかぎり,普遍のデータを格納する.

オブジェクトキャッシュをエッジコンピューティング上で展開するのであれば,低レイテンシでキャッシュを取得するために,近隣のエッジに配置されたキャッシュノードからデータ取得を完結したい. そのための手法として,エッジ群をエリアに区切り,エリアごとにキャッシュクラスタを用意する,または,キャッシュの参照パターンが同じエリアに偏ると考えて,コンシステントハッシュ法で分散するのではなく,なんらかの方法で距離が近いエッジ群を認識し,近傍エッジ内で完結してキャッシュを読み書きするようにする.

クエリリザルトキャッシュ

データベースミドルウェアの層でキャッシュする場合,データベースへのクエリの結果をキャッシュするクエリリザルトキャッシュを利用する.

MySQLのクエリリザルトキャッシュは,データベースサーバ自体がキャッシュ機構をもつため,追加のソフトウェアなしにクエリリザルトキャッシュを利用できる. テーブルに更新があれば,当該テーブルの変更が結果に影響するクエリのキャッシュを破棄するため,テーブルとキャッシュ間で一貫性を維持する.

ProxySQL7は,MySQLプロトコルを解釈するプロキシサーバであり,クエリリザルトキャッシュ8,クエリルーティング,MySQLサーバのフェイルオーバーといった機能をもつ. ProxySQLは独立したプロセスとして起動するプロキシであることから,ProxySQLのクエリリザルトキャッシュは,MySQLサーバよりもよりフロントエンドに近い位置に配置することが可能である. 例えば,アプリケーションサーバと同一のホスト上に配置することにより,アプリケーションサーバとMySQLサーバ間のRTTを削減できる. しかし,TTL(Time to Live)を利用してキャッシュを無効化するため,アプリケーションに対して古くなったデータを返す可能性がある. また,ProxySQLは,複数のピアノードと協調してキャッシュデータを同期したり,キャッシュプールを共有することはない.

DBProxy[^8]は,エッジ上に配置された各アプリケーションサーバが,中央のデータベースサーバに対するクエリ結果をキャッシュする. また,リレーションを基にしたキャッシュ表現を持つ. さらに,クエリ結果が他のクエリによりキャッシュされたデータによる構築できるのであれば,未キャッシュのクエリの結果を返すという巧妙なクエリ処理が可能である. DBProxyは,中央集権的に一貫性を管理することにより,各キャッシュは中央データベースに対してコヒーレントとなっている. しかし,クエリキャッシュを利用する複数のステートメントを含むトランザクションに対応できるようなトランザクションの観点での一貫性は保証されない.

Ferdinand9は,分散されたデータベースクエリリザルトキャッシングによる,動的コンテンツ配信のための協調動作するプロキシである. トピックベースのpublish/subscribeモデルにより,キャッシュの一貫性を維持し,DBProxyと同様に,複数のステートメントを含むトランザクション向けの一貫性を緩めている. 実験の結果,3倍程度の性能向上があった一方で,エッジ上のキャッシュノード間とキャッシュノードと中央データベースの間のRTTを大きくした環境では,RTTが増加すると急激にスループットが落ち込むという結果を示した.

DBProxyとFerdinandのような各アプリケーションサーバが一貫したキャッシュを持つアプローチでは,一貫性を保つためにキャッシュの更新時に同期が必要となる. エッジが地理的に張り巡らされているような環境を想定したときに,エッジ間のネットワークレイテンシが大きくなるため,エッジ間で同期を待つと,応答速度が低下するという課題がある. このような課題に対して,超個体的DBクエリリザルトキャッシング10で紹介しているような適応的なクラスタ制御により解決を試みていくつもりがある.

まとめ

この記事では,Webアプリケーションの読み出し性能を向上させるための分散キャッシュの要素技術を調査した. 今後は,この記事の調査内容を基に,超個体型DBクエリキャッシュ構想[^10]がどのような立ち位置にあるのかを明確にしていきたい.

スライド

参考文献


  1. Forrester Consulting, “eCommerce Web Site Performance Today: An Updated Look At Consumer Reaction To A Poor Online Shopping Experience”, 2019.

  2. Amazon Web Services, Inc., Lambda@Edge, https://aws.amazon.com/lambda/edge/.

  3. Cloudflare, Inc., Serverless Computing with Cloudflare Workers, >https://www.cloudflare.com/products/cloudflare-workers/>.

  4. Fly, JavaScript at the Edge, https://fly.io/.

  5. B Kashif, K Osman, E Aiman, K Samee U, “Potentials, trends, and prospects in edge technologies: Fog, cloudlet, mobile edge, and micro data centers.”, Computer Networks, vol.130, pp.94-120, 2018.

  6. Groupcache, https://github.com/golang/groupcache.

  7. ProxySQL: High-performance MySQL proxy with a GPL license, https://proxysql.com/.

  8. K Amiri, S Park, R Tewari, and S Padmanabhan, “DBProxy: A dynamic data cache for Web applications”, International Conference on Data Engineering, pp.821-831, 2003.

  9. C Garrod, A Manjhi, A Ailamaki, B Maggs, T Mowry, Christopher Olston and Anthony Tomasic, “Scalable query result caching for web applications”, VLDB Endowment, vol.1, no.1, pp.550-561, 2008.

  10. 坪内佑樹, 超個体型DBクエリキャッシュ構想, Hosting Casual Talks #5, https://speakerdeck.com/yuukit/chao-ge-ti-de-dbkuerikiyatusingugou-xiang.

エッジコンピューティングを活かしたウェブアプリケーションホスティング構想

さくらインターネット研究所では、超個体型データセンターというコンセプトに則り、あらゆるデバイスと場所がデータセンターとなり、各データセンターが有機的に結合した集中と分散のハイブリッド構造をもつコンピューティングを目指している。 超個体型データセンターにとって、重要な先行コンセプトに、エッジコンピューティングがある。 この記事では、エッジコンピューティング環境において、ウェブアプリケーションをホスティングするためのアーキテクチャを考察する。

エッジコンピューティング

Kashifらのサーベイ論文1によると、エッジコンピューティング技術を必要とする背景は、次のようなものになる。 スマートデバイス、ウェアラブルガジェット、センサーの発展により、スマートシティ、pervasive healthcare、AR、インタラクティブなマルチメディア、IoE(Internet of Everything)などのビジョンが現実化しつつあり、レイテンシに敏感で高速なレスポンスを必要とする。 従来のクラウドコンピューティングでは、エンドユーザーや端末とデータセンターとの間のネットワークレイテンシが大きいという課題がある。 そこで、この課題を解決するために、エッジコンピューティングでは、ネットワークのエッジやエンドユーザーとクラウドデータセンターの間の中間層を設けることにより、レイテンシの最小化とネットワークの中枢の下りと上りのトラフィックの最小化を目指す。 (エッジコンピューティング調査 - 動機と分類 - ゆううきメモ)

エッジコンピューティングは、ある一つの形態があるのではなく、複数のコンピューティング形態を内包する。 先のサーベイ論文は、エッジコンピューティング技術としてFogコンピューティング2、Cloudlets3、Mobile Edge Computing(MEC)4、Micro Data Centers5の4つが紹介されている。 エッジと呼ぶものの実態は、ルーターやアクセスポイントであったり、基地局に付随する小さなクラウド環境であったり、単独の小さなデータセンターであったりする。 エッジコンピューティングの典型構成は、端末 - エッジ - クラウドの3-tier構造であり、P2Pのような強い分散構造ではなく、端末とエッジの分散構造とクラウドの集中構造を併せ持つ。 エッジコンピューティングを利用したアプリケーションでは、エッジでは端末から収集した情報をフィルタリングしつつクラウドへ転送したり、アクチュエーターの制御のために端末の情報をもとに別の端末へ制御命令を送るといった処理フローが想定されている。

エッジコンピューティングでは、エッジコンピューティング調査 - アプリケーション - ゆううきメモで紹介したように、インタラクティブな動画コンテンツ、ウェアラブルコンピューティング、クラウドゲーミング、スマートリビング、スマートグリッド、医療モニタリング、5Gなど、現場にあるものをリアルタイムに制御する必要があるアプリケーションが想定されている。 これらのアプリケーションの端末までの想定応答時間は25-50ms程度であり、クラウドへ到達できないほどのシビアな要求となる。 これらのアプリケーションは、現場にある大量のデータを収集し、それらの情報をもとに分析をしたり、なんらかの制御を実行したりするデータインテンシブなアプリケーションといえる。

エッジコンピューティングは、このようなリアルタイムアプリケーションをメインターゲットとする一方で、これまでクラウド上でホスティングされてきた伝統的なウェブアプリケーションについて、エンドユーザーからみた応答速度を高める可能性がある。

エッジコンピューティングの目的であるエンドユーザーとのレイテンシの削減を達成するためには、ユーザーがどこにいても、近傍にデータセンターが存在しなくてはならないため、エッジが地理的に遍在している状況を仮定する。 そこで、クラウドとエッジを併用する環境を利用し、WordPressのようにデータをRDBMSに格納する伝統的なウェブアプリケーションの応答速度を向上させる手法を考察する。

エッジ環境におけるウェブアプリケーションホスティングの課題

ウェブアプリケーションの分類

エッジ環境にホスティングすることを前提に、ウェブアプリケーションを観点ごとに分類する。 まず、ウェブアプリケーションを処理の複雑さに応じて分類すると、最も簡単なものが静的サイト、その次にデータベースを用いない動的サイト、さらに単一のデータベースを用いた動的サイト、最後にNoSQLなど異種混合のデータベースを併用する動的サイトがある。 次に、ウェブアプリケーションをアクセスパターンにより分類すると、ブログシステムのような読み込み処理主体のRead Heavyアプリケーションと、ソーシャルゲームのような書き込み処理主体のWrite Heavyアプリケーションがある。 次の節では、単一のデータベースを用いた動的サイトがRead Heavyのアクセスパターンをもつアプリケーションを仮定し、構成パターンを議論する。

ウェブアプリケーションの構成パターン

伝統的なウェブアプリケーションは、ウェブサーバ、アプリケーションサーバ、データベースサーバの3-tier構造により構成される。 この3-tier構造をエッジコンピューティング環境で構成するパターンは次の3つである。

  • (a): 3-tier構造をすべてエッジに配置。
  • (b): ウェブサーバとアプリケーションサーバをエッジに配置し、データベースサーバをクラウドに配置。
  • (c): ウェブサーバをエッジに配置し、アプリケーションサーバとデータベースサーバをクラウドに配置。

図1に示すパターン(a)については、エッジ環境にてtier要素をすべて配置することにより、エッジ内で処理が完結するため、エンドユーザーへの応答時間を短縮できる。 しかし、データベースサーバを分散することになり、各データベースサーバの一貫性を維持するためのプロトコルが必要となる。 具体的に一貫性を維持する状況として、各アプリケーションサーバがローカルのデータベースに書き込むときに、他のエッジのデータベースとの間で書き込み競合がある。 または、書き込み競合を避けるために、図1の左の図のように、各エッジ上のアプリケーションサーバがクラウド上のデータベースサーバのみに書き込み、ローカルのデータベースから読み出すように構成し、読み込みクエリのみを高速化かつスケールする手法もある。 つまり、クラウド上のデータベースサーバを単一のリーダー(マスターとも呼ぶ)として、エッジ上のデータベースサーバをフォロワー(スレーブとも呼ぶ)とし、フォロワーには読み込みクエリのみを向ける。 しかし、この手法を適用すると、Read-after-write consistency6、Monotonic reads7などのレプリケーション遅延により引き起こされる異常が発生することがある。

エッジコンピューティングのように、クラウド内通信と比較し通信レイテンシの大きい環境では、書き込みが全ノードに伝搬する前に別のノードが次の書き込みを開始する可能性が高くなるため、一貫性を維持するためにキャッシュエントリの更新時に待ち時間を要するはずである。 強めの一貫性モデルを採用すると、全体のスループットが低下する恐れがあるため、性能を優先するのであれば、結果整合性などの弱い一貫性モデルを採用する必要がある。 このような一貫性と性能のトレードオフに対して、データベースミドルウェアのみで解決することは難しく、アプリケーション仕様やコードにて一貫性の考慮が必要となる。

f:id:y_uuki:20190227164806p:plainf:id:y_uuki:20190227164801p:plain
図1: 構成パターン(a) Leaderless構成とSingle Leader構成

図2に示すパターン(b)については、アプリケーションサーバとデータベースサーバ間のレイテンシが大きいという性質がある。 アプリケーションサーバが動的コンテンツを生成したり、API処理をするには、1回以上データベースに問い合わせすることになる。 したがって、ユーザーとウェブサーバ間でHTTPのリクエストとレスポンスを1往復する処理の間に、アプリケーションサーバからデータベースサーバへのクエリと結果取得の往復が少なくとも1回以上あるため、クラウドのみのパターンと比較し、却って応答が遅くなる可能性がある。

Webサービスをデータセンター移行するときに必要となる技術要素 - ゆううきブログでは、地理的に離れた複数のデータセンター間をまたいで、パターン(b)と同様にウェブアプリケーションを構成したときの応答時間の変化を紹介している。

図2: 構成パターン(b)

図3に示すパターン(c)については、ウェブサーバとアプリケーションサーバ間のレイテンシが大きいという性質がある。 HTTPリダイレクトや静的コンテンツの配信など、ウェブサーバのみで完結する処理については、ユーザーの近傍で処理が完結するため、パターン(c)は高速となる(ただし、パターン(b)も同様)。 また、ウェブサーバとアプリケーションサーバ間の接続を永続化することにより、TCPの3-wayハンドシェイクのためのラウンドトリップ時間を抑えられる。 ウェブサーバとアプリケーションサーバ間はHTTPの往復は1回となるため、パターン(b)のように却って応答が遅くなることはない。 しかし、アプリケーションサーバがウェブアプリケーションとしての処理の大部分を実行するという前提を置くと、エッジコンピューティングの利点を生かせていない構成といえる。

図3: 構成パターン(c)

アーキテクチャ設計

エッジコンピューティングがもつエンドユーザーとのレイテンシ最小化の利点を活かすには、Read Heavyアプリケーションに対して、構成パターン(a)または(b)を適用することになる。 データの複製、クエリの結果のキャッシュ、バッファプールを各エッジとクラウド間で協調して同期することにより、それぞれの構成の課題を解決する。

分散クエリキャッシュ

構成パターン(b)の課題であるアプリケーションサーバとクラウドのレイテンシ増大をクエリキャッシュにより削減することを考える。

分散クエリキャッシュの先行手法の一つにFerdinand8がある。 Ferdinandは、各アプリケーションサーバがキャッシュをローカルに持ち publish/subscribeにより、アプリケーションサーバ群が協調してキャッシュを同期する。これにより、アプリケーションコードを変更せずに、中央のデータベースサーバの負荷を削減し、スループットを向上させている。

エッジ環境では、エッジ数の個数の増加とエッジ間やエッジ・クラウド間のネットワークがレイテンシが大きいかつ不安定になることが想定される。 キャッシュの一貫性を維持しようとすると、最もレイテンシの大きいノードへのキャッシュの伝搬を他のアプリケーションサーバが待たねばならず、全体のスループットが低下する可能性がある。 そこで、古いキャッシュの読み込みを許した一貫性モデルを採用し、アプリケーションコードを極力変更せずにすむ手法を考える。

図4にHTTPメソッド単位でエッジかクラウドで処理するかを分岐するアーキテクチャ(HTTPメソッドフォワーディング)を示す。 HTTP POST/DELETE/PUTリクエスト処理は更新トランザクションを含むと仮定し、Read-after-write consistencyなどの異常を避けるために、クラウド側のアプリケーションサーバへリクエストを転送する。 HTTP GETリクエスト処理は参照トランザクションのみを含むと仮定し、データベースサーバの複製またはキャッシュが古くても一貫性に関する異常が起きないとして、HTTP GETをエッジのアプリケーションサーバへ転送する。 この手法により、HTTP POST/DELETE/PUTはこれまで通りクラウドで処理するため応答速度は向上は見込めない一方で、HTTP GETのみエンドユーザー近傍で処理可能となり、応答速度を向上できる。 ただし、エンドユーザーには古いデータを表示する可能性をアプリケーション仕様として組み込む必要がある。 また、ここまでHTTPリクエストとレスポンスの往復をひとかたまりのトランザクションとする前提を置いているが、エンドユーザーが操作するクライアント側で複数のHTTPの往復をトランザクションとして扱うようなアプリケーションの場合、一貫性を維持できない問題が発生する。

図4: HTTPメソッドフォワーディング

エッジ上の複製またはキャッシュをいかに同期するかについては、定期的にクラウド側の複製またはキャッシュをエッジへ転送し同期する素朴な手法がある。 しかし、クラウドから各エッジに転送するときに、完全な複製またはキャッシュをすべて転送するとネットワーク帯域を消費するという課題がある。 この課題に対して、エッジとクラウド間の差分のみを転送したり、P2Pファイル転送のようにエッジ間で転送することにより、クラウドのネットワーク帯域消費を軽減しつつ、同期速度を高速化できる可能性がある。

分散バッファプール

構成パターン(a)について、エッジ上のデータベースサーバをクエリ解析器とバッファプールのみを配置し、クラウド上にストレージファイルを配置することを考える。 バッファプールはRDBMSが内蔵するメモリ上のデータ構造であり、バッファプールを前段に配置することにより、バッファプール上に配置されているデータの参照をエッジ内で完結できる。

この手法の実装にはファイルシステムレベルとデータベースミドルウェアレベルの手段がある。 まず、ファイルシステムレベルでは、NFSまたはFUSEとHTTP(gRPC)により、クラウド上のストレージファイルをエッジ上のデータベースサーバがマウントする形で参照する実装がある。 次に、データベースミドルウェアレベルでは、MySQLのInnoDBストレージエンジンを改変し、バッファプールとストレージファイルアクセス部分をネットワーク分離できるようにする実装がありえる。

バッファプール上のデータの一貫性の維持についての議論は、バッファプールをキャッシュとみなすと、分散クエリキャッシュと同様になる。 したがって、エッジ間のバッファプールの一貫性をより強く維持しようとするとスループットが低下する可能性があるため、結果整合性モデルを採用し、HTTPメソッドフォワーディングによりスループットを向上できる。

適応的クラスタメンバー管理

これまで述べてきたように、結果整合性を採用すると、アプリケーション仕様やコードでの一貫性の考慮が必要となるため、アプリケーション開発者に負担を強いる。 そこで、より強い一貫性モデルを前提としつつも、全体のスループットの低下を軽減できないかを考える。 提案する手法は、他のエッジやクラウドとのネットワーク疎通が不安定であるかまたは、レイテンシが大きいエッジノードを自動でサービスアウトし、一貫性維持のための書き込み同期待ち時間を軽減し、スループットの低下を防ぐというものになる。

具体的には、サービスレベル目標(SLO)として、全体スループットまたはキャッシュエントリ更新時の待ち時間を設定し、システム運用時にSLOを下回ったときに、低下要因のエッジを検出し、当該エッジをサービスアウトする。 問題のあるエッジ検出のために、常にエッジ間のレイテンシをモニタリングし、サービスアウト候補をリストしておく。 ただし、この仕組みにより、エッジ数を減少させる方向に最適化された結果、エンドユーザーへの応答が結果的に遅くなるのでは本末転倒である。 そこで、エンドユーザーへの応答時間をモニタリングし、既定値を上回ることがあれば、最も応答時間の回復に適したエッジを選出し、サービスインするといったフィードバック制御をかけることを考えている。

適応的クラスタメンバー管理は、数多くのエッジが広域に分散しているためエッジを前提として、サービスアウトしてもユーザーとのレイテンシ以外の信頼性に影響がないことに着目している。 さらに、エンドユーザーとのレイテンシ、全体スループットといった信頼性に関わる複数の指標値があることに着目し、SRE(Site Reliability Engineering)の考え方を適用している。

まとめと今後の課題

本記事では、エッジコンピューティング環境を活かすためのウェブアプリケーションホスティング構成のパターンを考察し、課題を整理し、課題を解決するためのアイデアを示した。 提案したアイデアは、分散クエリキャッシュ、分散バッファプール、結果整合性のためのHTTPメソッドフォワーディング、より強い整合性のための適応的クラスタメンバー管理である。

本記事の内容を研究所内で発表したところ、エッジコンピューティング領域の用語について業界内で厳密に定義できていないこと、リアルタイムアプリケーションの応答時間目安、ウェブアプリケーション性質の分類(想定アクセスパターンの整理)、P2Pでの関連研究、超個体型データセンターに向けて、一箇所に書き込みを集中しなくてよいようなアプリケーション特性などについて議論した。 超個体型データセンターの観点では、データ一貫性という集中構造を要求する分散システムの原則と、エッジコンピューティングという分散構造への要求をいかに両立するかというところがこれから重要となってくる。 今後は、CDN、P2P、地理分散データベース、広域分散、ブロックチェーンなどの関連する分野の先行研究のサーベイを進め、研究開発の立ち位置を明確にしつつ、実装と評価を進めていく予定である。

参考文献


  1. Bilal Kashif, Khalid Osman, Erbad Aiman, Khan Samee U, “Potentials, Trends, and Prospects in Edge Technologies: Fog, Cloudlet, Mobile edge, and Micro data centers.”, Computer Networks, vol. 130, pp.94-120, 2018.

  2. Flavio Bonomi, Rodolfo Milito, Jiang hu, and Sateesh Addepalli, “Fog Computing and Its Role in the Internet of Things.”, first edition of the MCC workshop on Mobile cloud computing, pp.13-16, 2012.

  3. Mahadev Satyanarayanan, Paramvir Bahl, Ram'on Caceres, and Nigel Davies, “The Case for VM-based Cloudlets in Mobile Computing.”, IEEE Pervasive Computing, vol. 4, pp.14-23, 2009.

  4. Michael Till Beck, Martin Werner, and Sebastian Schimper Feld, Mobile edge computing: A Taxonomy, Sixth International Conference on Advances in Future Internet (AFIN), pp.48-55, 2014.

  5. V. Avelar, Practical Options for Deploying Small Server Rooms and Micro Data Centers, Revision 1, White Paper [online] Available: http://www.datacenterresearch.com/whitepaper/practical-options-for-deploying-small-server-rooms-and-micro-9014.html, 2016.

  6. Douglas B. Terry, Alan J. Demers, Karin Petersen, et al., “Session Guarantees for Weakly Consistent Replicated Data”, 3rd International Conference on Parallel and Distributed Information Systems (PDIS), 1994.

  7. Douglas B. Terry, “Replicated Data Consistency Explained Through Baseball,” Microsoft Research, Technical Report MSR-TR-2011-137, 2011.

  8. Charles Garrod, Amit Manjhi, Anastasia Ailamaki, Bruce Maggs, Todd Mowry, Christopher Olston, and Anthony Tomasic, “Scalable Query Result Caching for Web Applications”, VLDB Endowment, vol. 1, no. 1, pp.550-561, 2008.

2019年SRE考

この記事では、自分が数年Site Reliability Engineering (SRE)を実践しつつ、SREについて考えてきたことをまとめる。 先月開催されたMackerel Drink Up #8 Tokyoと先日開催された次世代Webカンファレンス 2019では、SREについて集中的に議論する機会に恵まれたため、脳内メモリにキャッシュされているうちにを文章としてまとめておこうと考えた。

(以降では、SRE本の原著にならい、技術領域名を指すときはSRE、職種名を指すときにSREsと表記する。)

SREとの関わり

なぜSREに関心をもったのか

2015年にメルカリさんがSREチームを発足したときに、SREsの存在を知り、SREsはシステム管理者、Webオペレーションエンジニア、インフラエンジニアといった既存の職種を置き換えていくものだと理解した。 当時、自分が注目したのは、SREsの仕事領域にソフトウェアエンジニアリングが含まれることと、業務時間に対してソフトウェアエンジニアリングが占める割合だった。 2014年前後では、SREsの存在が知られる前から、Infrastructure As Codeなどの概念の登場により、これからのインフラエンジニアは単にオペレーションをする人ではなく、コードを書いていくのだという認識が広まっていたと思う。

しかし、頭の中ではコードを書くことを認識していても、実際にソフトウェアエンジニアリングをやれている理想の状態と現状ではギャップがあった。 そこで、理想の状態を体現しているであろうGoogleやFacebookなどの企業が具体的なソフトウェアエンジニアリング時間の割合にまで言及していたことが自分の印象に残っていた。

また、SREを調べているうちに、システムの信頼性を100%にはできないという前提に基づき、エラーバジェットという自分にとっては新しい考え方を発見した。 これにより、最初は,SREとはこれまで定性的であったシステム運用に関する意思決定材料を、定量化するための方法論であるという印象をもったことも覚えている。

SRE本

しばらくして、2016年にはGoogleのSREsがSRE本の初版を出版した。 Web上の言説だけではSREをよく理解できていないと感じていたため、当時自分がもっていたソフトウェアエンジニアリングに集中するにはどうするかという問題意識を解決するために、主要な章を社内で輪読した。

輪読により、信頼性の具体的定義と指標であるSLI/SLO、SREsの日々のタスク分類(Software Engineering、System Engineering、Toil、Overhead)といった方法論を学んだ。 その結果、Googleのような先進的企業であっても、定常的な作業(Toil)をゼロにはできないし、ToilやOverheadが膨れ上がらないようにエンジニアリングに費やす時間を管理する組織的な方法論まで議論していることに親近感を覚えた。

さらにその翌年の2017年に日本語の翻訳書が出版された。 原書を読んだときは、答えを探すような気持ちで方法論をいかに自分の環境に適用できるかといった視点でしか読んでいなかった。 しかし、母語で読めたおかげか、見逃していたSREsの先人達の思いのようなものを感じ取れた。 特に序文、はじめに、1章では、なぜSREのような概念を構築するに至ったのかを知ることができる。

自分が考えるSRE

自分なりの問題意識とそれを解決するためのSREの概念の学習とその実践を通して、自分が考えるSREというものが徐々にできあがってきた。 以降では、自分が考えるSREとはなにかを書いていく。

SREとはなにか

SRE本の「はじめに」には、次のように書かれている。

それでは、サイトリライアビリティエンジニアリング(SRE)とはいったい何なのでしょうか。 この名前が、その内容をはっきりとは表現できていないことは認めざるをえません。

このあとに、説明が続いていくのだが、現時点では、一言で言い切るのは難しい。

もし自分が誰かにSREとはなにかと聞かれたら、今なら「サイト信頼性を"制御"するための技術」と答える。 ここでいう制御とは、信頼性を向上させることもできるし、維持することもできるし、低下させることもできることを指す。 過去にSREについて説明したときは、前者2つを説明することが多かった。

しかし、自分は、信頼性をあえて低下させることを前提とした方法論に着目した。 一般的な感覚でいえば、信頼性を下げるなんてありえないと思うかもしれないが、SRE本には、信頼性100%は基本的に達成不可能であるというドライな原則をもとに、4章ではSLOの過剰達成を避けるということが紹介されている。 実際、そんなに高い信頼性はいらないんじゃないかと思うことも正直あった。 信頼性と変更速度はトレードオフとなることがあり、障害の主な原因はヒューマンエラーであることを考えると、目先の信頼性をとりあえず向上させたければ、システムに変更を加えないほうがよいことになる。 これまでの自分の経験では、信頼性が低くて困るというよりはむしろ、暗黙的に信頼性100%を目指してしまい、システムを変更したいのに信頼性を低下させる過剰な恐れがあって万全を期すために変更が遅くなったり、そもそも変更しなかったりすることに困っていたことが多かった。 システムの変更には、そのあとの変更を速くするものも含まれるために、変更しないことにより、さらなる変更速度の低下をまねいてしまうことがある。

そうはいっても、ユーザーに明確に不便を感じさせるほど、信頼性を低下させるわけにはいかない。 システムの変更に対して、どこまで影響がでるかわからなかったり、問題があってもすぐに気づけない可能性があるなかで、変更を加えることは博打のようなものである。 しかし、変更影響が限られていたり、変更に対するテストがあったり、問題にすぐ気づけたり、問題があっても自動復旧できたり、その後の根本対策ができる体制があったりすることで、安心して変更できるようになる。 安心して変更できるのであれば、変更速度はあがっていくはずである。 このように、後述する信頼性の階層により信頼性を制御するための構造を構築しておくことで、信頼性を"制御"できている状態で、変更速度を高めていける。 100%の信頼性を構築することは難しいが、エラーを許容する前提があれば、あとは程度の問題ということになる。

信頼性とSLI/SLO

信頼性にはいくらかの定義のしようがある。 SRE本は、書籍"Practical Reliability Engineering"の定義である「システムが求められる機能を、定められた条件の下で、定められた期間にわたり、障害を起こすことなく実行する確率」を採用している。

SLIとSLOを適切に設定することは、SREを実践する上で最も重要である。 しかし、SLIが妥当かどうかを確かめることとSLOを計測することが難しいこともある。 例えば、SRE本では、SLIの例としてサービスのレイテンシが挙げられている。 レイテンシと一口にいってもリクエスト数は膨大なので、統計的な値を用いる必要があり、平均値なのか、中央値なのか、95パーセンタイルなのか、99パーセンタイルなのかといった選択肢がある。 さらに、リクエストの中にはロードバランサからのヘルスチェックや、ウェブクローラーからのリクエストなど、種類の異なるリクエストがある。 加えて、エンドポイントによってレイテンシの差が大きい場合に、エンドポイントごとにレイテンシを計測するか、まとめてしまうのかといった選択肢がある。

SLI/SLOがないとSREは始まらないので、ターゲットとなるシステム単位で、時間ベースの可用性目標やMTTR(Mean Time To Recovery)、障害発生回数など計測が比較的簡単なものから計測しはじめるとよいと思っている。 そこから、四半期ごとなど定期的にSLI/SLOが適切かをプロダクトオーナーとSREsが見直していけばよい。 SLI/SLOの設計の具体的な例などは、書籍The Site Reliability Workbook*1が詳しい。

信頼性の階層

(Betsy Beyer et. al.編, "SRE サイトリライアビリティエンジニアリング", オライリージャパン, p108図III -1サービスの信頼性の階層)

信頼性を計画的に構築するには、上記のような信頼性階層を構築する必要がある。 まず、信頼性構築のための基盤となるのが、信頼性を測定する手法としてのモニタリングだ。 これがなければ、サービスがReliableな状態にあるのかがそもそもわからないし、監視項目にもれがあれば、ユーザーに影響があるのにそれに気づけていないことになる。 信頼性を高めたいもしくは安心して変更していきたいという問題意識がある場合、まずは、モニタリングから見直し、この階層の下から上で登っていくとよいと思う

信頼性と変更速度の両立

先に、信頼性と変更速度はトレードオフとなると書いたが、ソフトウェアエンジニアリングによりこれらを両立できることがある。 人間の動作時間は計算機の動作時間に比べて遅いため、復旧時間を短くするには、オペレーションをできるだけソフトウェアに任せるのが筋が良い。 仮にSLIとしてMTTRが設定されているとすると、ソフトウェアエンジニアリングにより信頼性が向上していると言える。 オペレーションが自動化されていると、普段の変更も高速化し、結果として信頼性と変更速度のそれぞれの向上を両立できると言える。

SREがエンジニアリングのなかでもソフトウェアエンジニアリングを重視しているのは、トレードオフの解決のためであると考えている。

変更速度の計測

信頼性が十分高い状態であれば、次は変更速度を計測する必要がでてくる。 変更速度が計測できていないと、信頼性を高くできているがそのために労力をかけすぎているケースに気づけない可能性がある。

そこで、SRE本に書かれているように、SREが、ソフトウェアエンジニアのチームが従来のシステム管理を再構成したものととすると、もともとソフトウェアエンジニアがやっているプロダクト開発のアプローチに着目した。 DevOpsの文脈においても、プロダクト開発(Dev)のアプローチである継続的インテグレーションなどがOpsにて採用されていった経緯もある。

変更速度を計測するために、アジャイル開発の手法をとりいれたことがある。 具体的には、プロダクト開発と同様に、ビジョンを設定し、機能開発のためのロードマップを設定し、スプリントごとにバックログを積み、プランニングポーカーによりバックログに見積もりポイントを設定し、ベロシティを計測するといったものだ。(僕は、書籍アジャイルな見積りと計画づくり ~価値あるソフトウェアを育てる概念と技法~ だけを読んでアジャイル開発を勉強した。) 直接の経緯としては、SRE本にはToilの割合は50%以下に抑えよというプラクティクスがあり、Toilの割合がどの程度かを確認する必要があった。 しかし、Toilは短時間である、割り込みである、数が多い、またはToilとEngineeringの区別は実は難しいといったように計測が難しくなるような性質をもつ。 したがって、直接Toilを計測するのではなく、ベロシティを計測することにした。 ベロシティが低下したスプリントには、どんな要因があったかを確認し、その要因を取り除くようなタスクをバックログに積んだりもしていた。 要はやりたいことができていればよいので、それらを直接的に計測しようということである。

これらは横串のプラットフォームチームとしての取り組みだったが、サービス開発チームにおいても同様だと思う。 サービス開発チームにおいては、すでにプロダクトオーナーが存在し、オーナーがロードマップを決定していることもある。 そのときは、SREとしてのロードマップも、プロダクトのロードマップに組み込むという考え方になる。

信頼性と費用

変更速度以外にも、信頼性(レスポンスタイム)と費用のトレードオフがある。 例えば、インスタンスサイズを大きめにしたり、インスタンスの個数を大きめにしたりすると、突発的な負荷に耐えやすくなり、信頼性は向上する。 しかし、キャパシティを余分にもつことで費用は高くなってしまうということがある。

クックパッドさんの事例では、実験をした上で、ユーザー影響を定量化し、プロダクトオーナーとの協議の末、あえてGPUからCPUに移行されていた。 本番/ステージング環境GPUぼくめつ大作戦 - クックパッド開発者ブログ これは、信頼性を制御した上で、費用を削減するというSREの取り組みの例といえる。

技芸から工学へ

書籍「ウェブオペレーション」では、まえがきにて著者が次のように述べている。

ウェブオペレーションは技芸であり、科学ではない。 正規の学校教育・資格・標準は(少なくとも今はまだ)ない。 我々のやっていることは、学習にも習得にも時間がかかり、その後も自分自身のスタイルを模索しなければならない代物である。 「正しい方法」はどこにも存在しない。 そこにあるのは、(とりあえず今は)うまくいくという事実と、次はもっと良くするという覚悟だけだ。

一方で、SRE本では、序文にて著者の一人であるMark Burgess*2は次のように述べている。

Principles of Network and System Administration[Bur99]の導入部で、システム管理はヒューマンコンピュータエンジニアリングの形の一つだと私は主張しました。 レビューアの中には「まだそれはエンジニアリングと呼べるほどの段階には来ていない」と強く否定する人もいました。 この時点では、私はこの分野は見失われて、独自の魔術師的な文化にとらわれ、進むべき方向が見えなくなっていると感じていました。 しかし Google は明確に線を引き、来たるべきシステム管理の姿を現実の存在にしたのです。 そして見直された役割がSRE、すなわちSite Reliability Engineerと呼ばれるものでした。

"エンジニアリングと呼べるほどの段階には来ていない"、"独自の魔術的な文化"という言葉が指すのは、前述でいうところの技芸にあたると解釈している。 自身の経験においても、古いバージョンのMySQLクラスタの切り替え作業を曲芸のようなオペレーションで乗り切ることもあった。*3

SREの登場により、技芸(Art)から工学(Engineering)へと移り変わる兆しがみえてきたように思う。

工学と技術 | Adachi Lab.

最初は、工学ではなく科学と書いていたが、科学は文献によっては理学のみを指すこともあるようなので、工学とした。 SREのEはEngineeringなので、工学なのは当たり前なのだが、これまではエンジニアリングといいつつも、技芸やテクニックのみになりがちであったように思う。 とはいっても、技芸が不要ということではなく、これからは、工学と技芸の両輪で回していくことになると考えている。

まとめと今後

この記事では、自分がSREに関心をもった経緯と解釈の変遷、自分なりのSREのあり方をまとめた。 このように、信頼性を軸に据えることにより、我々のやっていること、やろうとしていることをずいぶん体系だてて説明できるようになったと感じている。 ウェブオペレーションでは、ネットワーク・ルーティング・スイッチング・ファイアウォール・負荷分散・高可用性・障害復旧・ TCPやUDPのサービス・NOCの管理・ハードウェア仕様・複数のUnix環境・複数のウェブサーバ技術・キャッシュ技術・データベース技術・ストレージインフラ・暗号技術・アルゴリズム・傾向分析・キャパシティ計画立案などの技術を組み合わせて、システムを運用する。 しかし、我々はデータベースの開発者ではないし、BGPオペレーターでもないし、OS開発者でもないし、ハードウェア技術者でもない。 では何をする人なのかというと、今ではSREの専門家といえばよい。*4

今後は、2019年の展望でも紹介した「故人の跡を求めず 故人の求めたるところを求めよ」という言葉でいうと、単に方法論を適用するだけに留めず、SREsの先人の求めたるところを求めていきたい。 組織としては、工学としてのアプローチをとりいれていくことになるだろうし、巨大クラウド事業者のサービスの発展により全員がSREをやっていくことになると思う。 そんな中で、今SREsである人たちは、要素技術がクラウド事業者に取って代わっていき、良くも悪くも仕事が減っていく中で、SREをどうやって楽しんでいくかというところが重要になってくるだろう。 ウェブの世界での技術の進化の方向性としては、ウェブシステムの運用自律化に向けた構想 - 第3回ウェブサイエンス研究会 - ゆううきブログに私見をまとめている。 他には、システムのすべてが機械により自律制御されるビジョンに対するアンチテーゼとして、あんちぽさんの なめらかなシステムを目指して が参考になる。 また、自分自身としては、分散型データセンターOSとリアクティブ性を持つコンテナ実行基盤技術のこれから - 人間とウェブの未来に書かれているようなウェブの下の階層にて、分散型データセンターのような新しい基盤を前提にSRE Researcherをやっていくことになると思う。

最後に、SRE本の書評や読み方として、自分の考えに近いものをみつけたので以下にリンクを紹介しておく。

次世代Webカンファレンス2019での、@kanny@deeeetと議論した様子は 録画で視聴できる。

*1:まだ部分的にしか読めていない

*2:PuppetやChefの前身であるCFEngineの作者

*3:当時は同僚とMySQL4曲芸と呼んでいた

*4:それまでもウェブオペレーションの専門家と言えていたのではあるのだけども、ウェブオペレーションの中身を説明しようとするととたんに難しくなる

2019年の展望

どうでもいいけど、今日から真の無職になった。年末は珍しく、毎日おいしい日本酒を飲んだり、バーに行ったり、新幹線に置き忘れたiPhoneを買い換えたり、10年ぶりのLinuxデスクトップ環境構築をしていたり、友人・知人とゆっくり話をしていた。連絡をもらえてうれしかったと言ってもらったことはうれしかった。最終出社日を過ぎたあとに、まだ秋冬ものの靴や服を、何か足りないと感づきはしつつも、一部だしていなかったことに気づいたりして、心にゆとりがなかったことに思いあたった。計算機からのアラートを受けることもなく、日々の喧騒から離れ、徐々に自分を取り戻すような感覚がある。今年は、自分を見失わずに、やりたいことを楽しんでやる、ということに注力したい。

 

昨年の大きな転機はやはりはてなを退職したことだ。1年前は退職するとは思ってもみなかったけど、1年前の自分に今を見せても、驚いたあとにああやはりそうなったかと感じると思う。同僚の方々からみても、やはりというような反応をいただくことも多く、客観的にみても納得感があるというのはおもしろい。はてなには強い帰属意識をもって、会社の名を背負う気持ちで自主的に活動していたし、それだけの魅力のある会社だったと思う。もう少し未練が残るかと思ったけど、今のところそうでもなく、良い意味で状態をリセットした気持ちになっている。これまでオープンに表現してきたものが自分を支えてくれているのだと思う。

 

もう一つの大きな出来事は、査読付き論文を投稿できたことで、これがあったために、次は研究開発を専門にやっていくという決意ができた。さすがに、休みの日だけで書くのはそれなりに大変で、1、2回書くだけなら一時的な気力でなんとかなっても、毎年継続的にやろうと思うと、仕事にしていかないといけないなと思った。

 

さて、今年何をやっていくか。

 

まずは、ずっと放置していた生活基盤を見直して、快適に暮らしやすい環境を作りたい。お金のないときになんとなくで買った家具を、今の自分がよいと思えるものに買い換えたりして落ち着きを取り戻したい。

 

次に、研究というものを志すことになるため、研究や科学というものについて深く考えていきたい。そのために、とりあえず、中谷宇吉郎著「科学の方法」を読みながら、情報システムのアーキテクチャとの対応を考えたりしている。こういうことをしていると、漠然と科学に興味があった中学生や高校生だったころを思い出す。

 

最後に、さくらインターネット研究所では、まだなにをテーマとするかを決めていないけど、これまでと変わらずウェブやインターネット基盤技術をやっていくことになる。感覚的には、2017年にアカデミアの場で登壇したときにもった熱量を思い出して、ソフトウェアとして実装していきたい。ちょうど先月まつもとりーさんが書かれた以下の記事から、10年先のインターネット基盤の展望が書かれ、それに必要な技術をつくっていくイメージができた。ウェブのコンテンツ事業者の範疇ではできない基盤技術に取り組めそうなので、ひさびさにワクワクしている。これまでの得意だったウェブサービスアーキテクチャ、モニタリング、データベース、コンテナ仮想化技術、GPGPU、ネットワークスタックなど全部応用できるし、諦めていたOSに近いレベルのシステムソフトウェアを開発していくこともできるだろうし、何より技術階層の意味でのインターネットの会社なので、ネットワーク技術を学ぶこともできそう。

 

 

そして、なんといっても、まつもとりーさんと一緒に働けることをとても楽しみにしている。また、師匠がやってきたことを模倣することに加え、師匠が目指すところを目指すことを意識していきたい。これは大学生のころからよく読んでいて、今も折にふれて読んでいる漫画に書かれている言葉になる。今読むと、バーの原点は茶室にあるとして、エピソードの端々から東洋哲学を想起させるところが、自分を落ち着いた気持ちにさせてくれることに気づいた。

 

“師を求めず 師の求めたるところを求めよ”(長友 健篩、城 アラキ著「バーテンダー 」21巻。元の言葉は、松尾芭蕉の ”古人の跡を求めず 古人の求めたるところを求めよ”)

 

今年もよろしくお願いします。

 

登壇

 

第2回WebSystemArchitecture研究会

 

 

第3回WebSystemArchitecture研究会

 

第11回インターネットと運用技術シンポジウム

 

ブログ

 

そのほかメモブログにいくつか。


過去の振り返り