@acidlemonについて
|'-')/ acidlemonです。鎌倉市在住で、鎌倉で働く普通のITエンジニアです。
30年弱住んだ北海道を離れ、鎌倉でまったりぽわぽわしています。
みなさんISUCON4お疲れ様でした。まずはじめに運営のLINEさん、出題のクックパッドさん、そしていつも大量のサーバを提供していただいているデータホテル改めテコラスさんありがとうございました。ピザとお寿司おいしかったです。
さて、今回はベンチマークの気持ちになってCache-Controlヘッダをつけることが出来たかどうかだけがブレイクスルーできるかどうかを左右するという潔い問題でした。結果は既に既報のとおりで上位2チームだけブレイクスルーし、3位以下はずーっとネットワーク帯域にめいっぱいデータを流し続けてドングリの背比べとなりました。
1Gbpsの帯域を使い切るレベルまでアプリを高速化できると大体スコアが8000〜9000程度となるようで、最後の1時間までほぼ8000台に団子となっていましたが、Cache-Controlでブレイクスルーした2チームを除くと私の所属するfujiwara組の15000というのはそれの約2倍近くとなっており、逆にCache-Controlなしでどーやってそこまで行ったんだと気になる方もおられるかと思います。そんなわけで簡単にやったことを振り返っておきたいと思います。あ、「簡単に」って書きつつ例によって長いです。
コードとレギュレーションをよく読んで、初期実装からPerl実装に切り替えてローカルモードでベンチマークして約10000。しかし、リモートモードはまだベンチマークサーバが不安定だったので試さず、ざっくり眺めて何が必要かを洗い出すことと、ベンチマークがどういう負荷のかけ方をしているかを確認しました。
11:58:36 acidlemon: まず 11:58:42 acidlemon: POST /slots/4-dreamy_lovelace/ads 11:58:48 acidlemon: の入稿が5本走り 11:58:55 acidlemon: GET /slots/4-dreamy_lovelace/ad 11:59:01 acidlemon: のImpressionが走り 11:59:22 acidlemon: GET /slots/4-dreamy_lovelace/ads/20 で実際に広告をとりにくる 11:59:52 acidlemon: 実際の動画は GET /slots/4-dreamy_lovelace/ads/20/asset で配信 12:00:01 acidlemon: これが5Mくらい返してる 12:00:29 acidlemon: そのあと 12:00:30 acidlemon: POST /slots/4-dreamy_lovelace/ads/20/count 12:01:02 acidlemon: でimpressionをincr 12:02:35 acidlemon: GET /slots/4-dreamy_lovelace/ads/20/redirect もよんで一通りのシーケンスがおわりかな 12:03:37 acidlemon: 43 POST /slots/__SLOT__/ads 12:03:41 acidlemon: これが入稿なんだけど 12:03:50 acidlemon: 入稿がおわったらあとずっとimpressionしかしてない
この時点でとりあえずベンチマーカーが一通り入稿しおわったらあと広告表示しかしてこないことを把握して、そこをいかによく回すかが勝負なんだーと確認しました。
とりあえずこの時点でネットワーク負荷をみたところガッツリOutトラフィックが出ていたので、こりゃ今回も複数台で返すようにしないと帯域勝負で勝てないなということで、1台専用になってたアプリをよく読んで何を改造しないと複数台で動かせないかを確認しました。
あと、この時点で1号機は1コア、2号機と3号機は2コアということがわかり、なんでやねん…という気持ちでいっぱいでした。
12:08:13 handlename: get_logするたびにファイル読んでパースしてってやってるので、パース済みのものをredisか何かに保存するとよさそう 12:08:18 acidlemon: srv1はredisにしてsrv2とsrv3でフロントにして捌くというのがよいような気がする 12:08:33 handlename: get_logはGET /me/reportと GET /me/final_reportで呼ばれてる 12:09:00 acidlemon: いま複数台構成にするネックがそのファイルに書いてるところなので 12:09:15 acidlemon: それをredisかなんかに吐くようにするのは必須
で、手はじめに使ってるモジュールでちょっと速くなりそうなところから手を入れました。具体的にはRedisをRedis::Fastにしたのと、JSONをJSON::XSにしたあたりですね。あと、Redisを1台にまとめて全部のサーバが1号機のRedisにアクセスするように変更しました。
また、アップロードされてきた5Mの動画がRedisに突っ込まれていたので、さすがにこれはねーだろーということでローカルディスクに保存するように変更しています。この時点では1台構成なのでローカルディスクに保存してnginxでそれをserveするだけでOKです。Rangeヘッダとかはnginxがよしなにやってくれるはず。
動画をnginxで返すようにしてローカルベンチマークをすると大体スコアが16000くらい。ここでよーやっとリモートからのベンチマークがまともに使えるようになり、さっそくやってみると、えーとスコアが4100…?
dstatで確認してみると、ローカルベンチマークでは3台のサーバがほぼ青天井に近い速度で通信できますが、リモートベンチマークではそこまでスピードがでていません。おそらくVMの乗ってる物理マシンが与えられた3台では物理的に一緒だがベンチマークサーバーは別サーバーということで、物理的な制約でリミッターに当たっているようだと推測しました。
じゃあとりあえず複数台構成できるようにするねってことで、アプリを書き換えてTSVでログをファイルに書き出しているところをRedisのLISTに格納するように変更。30分くらいでサクッと書き換えて(珍しく)なんのバグも出ずに複数台構成が完了。ただ、動画ファイルは片方のサーバにしかないのでfujiwaraさんがnginxでtry_fileしてなかったら別のサーバにreverse proxyでfallbackするnginxの設定を書いてそれで捌くようにしました。
で、ローカルモードでベンチマークをかけて17000くらい。あれ思ったよりも上がらないな…。
さて、この頃にはリモートベンチマークツールのベンチマークジョブが4チーム並列となり、スコアが安定しなくなります。うーんそうはいってもローカルベンチマークはめっちゃ安定して17000だしなぁ…ということで、いろいろなバリエーションを試しました。
などなど。結局の所スコアが非常にばらついて、300〜7000でばらついたのでこりゃわからんなという感じに。ただ、なんとなく傾向としては「グローバルIP側からリモートベンチをかけるとスコアが落ちる」「複数台にしてfallbackしてるとスコアがおちる」ような感じなので、そこをなんとかする方向で考えます。
複数台で捌きたいけどfallbackはしたくない、となると入稿があった時点で2台のフロントサーバの両方にファイルを配備すればよいのですが、GlusterFSは遅くて使いたくないし、だからといってじゃあどうやって撒くんだ…? となりました。
ここでfujiwaraがアプリの返すJSONを見て、JSONの中にassetのURLが入っているのを発見しました。Redisに保存している広告の情報にどこのサーバに格納しているかの情報を付加して、uri_forを使わずにそのサーバに行くように仕向けるということで対処をすることになり、handlenameが実装に着手しました。
この頃ぼくはなにをしてたかというと、帯域がいっぱいいっぱいなら転送効率をあげるっきゃないということで、じつはベンチマーカーのマシンがジャンボフレームとかに対応してたりするんじゃね? とping -M do 10.11.54.62 -s 5000
を打ち込んだのですが、ベンチマークサーバからはMTUは1500だからあきらめろという感じのエラーが返ってきて「にゃーん」となったりしてました。
その他にやったのは、nginxでlimit_rateをかけて動画の転送速度を制限してみるなどもやったんですが、limit_rateはIPごとの制限になるので意味が無さそうということと、そもそも動画を転送しないとリクエストがどんどん押し寄せて飽和して結局ダメということがわかっています。
どうしようもなくなってきたのと、リモートベンチマークが帯域をちゃんと使い切ってくれない(ゆらぎ/ブレがある)問題でなかなか解くのが進まないのとでじりじりする時間帯。
workloadを調整してみてもスコアは変わらず、相変わらず安定しないのでHackすることを考え始めました。ぼくが考えたのはスロット全部配信したらもう5倍確定だし、それ以降の動画は配信しない(めっちゃ遅く返す)というやつです。が、これをやるにはアプリが動画を返さなければならないので、えーそれはなーみたいな感じで躊躇して結局やりませんでした。
さてそんなことを考えていると17時すぎにいきなり1位スコアが333555点に。えーなんだそれとなり、5Mのファイルをまともに配信してたら絶対でないスコアなので、やっきになって秘孔探しを始めます。
じゃあとりあえずということで、25%まではERRORがでても大丈夫というルールを使って動画を返すところでnginxからreturn 200 " "
みたいな感じで動画じゃないものを返すというのをやってみました。リクエスト数の分布をみると、動画は全体の15〜20%程度なので、これが全部ERRORになってもFATAL判定じゃなければ他のAPIがガンガン回ってそれなりのスコアはでるはず!
しかし現実はそんなに甘くありませんでした。動画を見に来るgoroutineはasset
→count
→redirect
の順にアクセスするのですが、assetの検証に失敗するとそこでルーティーンがabortしてしまい、count/redirectが呼ばれないのでエラー率が25%を越えてしまうのです。
じゃあ、一定確率で動画を空で返すか? とも考えたのですが、結局ちょっとでも動画を返すとたちまち帯域は埋まってしまうことが予想できたため、そこを深追いするのはやめました。
その他にも、動画配信ラッシュがはじまらないように出稿速度を律速するのを狙ってupload_limit_rateをかけるとか、アップロードするファイルの受け取りをAppではなくnginxにしてみるとかのアイディアも出ましたが、結局いろいろ問題が予見されたのでやりませんでした。
そうこうしているうちに30万点のスコアは更新されて7000点くらいまで落ち、なんだ再現性のないスコアか、ベンチマークツールのバグだったのかなー、忘れようとなりました。生ハム原木は30万点スコアをみてずっとそのスコアの再現に取り組んでたらしいので、そこで差がでてしまった…という感じです。
さて、ここまででどうやら3台構成だろうが1台構成だろうが、ベンチマーカー側の帯域が1Gbpsで埋まっていて受け側が複数台いてもどうしようもなさそうということが見えてきました。
ここで、Idobataのサポートチャットでまた3台のスペック違いについて質問がでていて、かたくなに「お答えできません」と回答しているのを見たので、こりゃCPUが1個しかついてない1号機になにかあるのでは…となりました。これ、もしかして1号機だけじつは帯域が広くなってるとかあるんじゃね? などと邪推して、CPUも余ってることだし思い切って1号機だけで捌いてみるというのはどうかというのを提案してやってみることにしました。
すると、帯域は1Gbpsまでしかいかなかったのですが通信の安定度が2号機3号機とは全然違い、非常に快適に帯域が全部埋まりました。これが意図したモノなのかどうなのかは今でもわかってないですが、これなら1台構成で1号機にかけるのが一番スコア安定するねーということになりました。とはいえ、リモートベンチマークのスコア的には9000前後です。
で、15000のスコアになったのはここからの押しの一手がありまして、fujiwaraが18時半くらいにトイレから戻ってくるなり「ベンチマーク、1台にローカルIPとグローバルIPの両方からかけてみましょう」と。なるほど、うまくいけばそれで2Gbps使えるかも? ということでやってみると、10800程度のスコアになりました。
うーんもうちょっと伸びるかなーと思ったのですが、このときでもリモートベンチマークは2チーム並列になっていて専有ではなく、10800を出したときの前半は帯域が1Gbpsも埋まってない状態でした。しかし、dstatで観察していると後半は2Gbps相当の速度が出ていたのでもしかすると本番ではいけるのでは? となりました。おそらく物理機でグローバル側とローカル側が1Gbpsで別々のNICになっていたという感じなんですかね。
このあと、じゃあ3台構成でに6個のIPアドレスに向けてやってみようぜというのもやってみたのですがベンチが詰まって完走せず、1号機の1台構成でグローバル&ローカルIPのデュアル構成でベンチパラメータを提出。その結果、本番計測では2Gbps相当の帯域をだいたい使い切ったらしく、1Gbpsを使い切ったときのの約2倍のスコアで3位となりました。
いやーいかがだったでしょうか。今回の問題、Cache-Controlに気づけなくて本当に悔しいですねー。ちなみに私はCache-Controlという話が講評で出たときはやられたーというよりはどちらかというとマジかよーという感じでした。広告って不特定多数に配信するので1分程度の試行だとCache-Controlが効くほどユーザの数に対して配信しきれるのかなーと。
ベンチマークツールが実際のブラウザを模しているとはいえ、実際の広告でCache-Controlが効くのってその広告を一度みたユーザだと思います。今回ベンチマークツールが送ってくるUAは30個くらいあって、そのUAごとにCache-Controlが制御されてたんですかねー、というのが気になりました。
UAごとじゃなくてベンチマーク全体でのCache-Controlだと、たぶん10〜20秒くらいで出稿された動画を全部配信し終わるので、そのあとが全力ぶん回し勝負だと60万みたいなスコアがでてもおかしくないです。しかし、UAごとにCache-Controlを判定していればだと広告150本に対して30ユーザいると4500通りなので、UAに偏りがない限り同じUAが同じ動画を引くことはそれほどなかったのかなーというのがなんとなーくモヤモヤと残りました。まぁ負け惜しみですけどね!
まぁその辺はtagomorisさんがISUCON Maker Night的なやつを開催してくれるとのことですので、その場のお楽しみということにしましょう! れもんでした。
2014/11/09 10:15 追記: Cache-Controlの件、朝起きてまだモヤモヤしてたのでもうちょっと考えてみました。
動画配信すること考えたら普通はやっぱりCDNに逃がすわけで、そうなるとオリジンサーバはCache-Controlつけて1回だけ返すようにするからそれはやっぱり気づけないとダメだったな
— Masatoshi Kawazoe (@acidlemon) 2014, 11月 9
ドメイン全部CDNに向けてて全部のリクエストはCDN経由で来てるんですよっていう想定なら言われなきゃ気づかないけどなるほどなーって感じだ
— Masatoshi Kawazoe (@acidlemon) 2014, 11月 9
まぁそんなわけで、まず動画を各ユーザに逐一配る発想をしてる時点でダメで、ベンチマークがかなり賢いというのはブラウザを模しているというよりもPOSTをパススルーして、なおかつCache-ControlつけてるときだけキャッシュするというCDNを模して作られていたという感じで考えるべきだったんですかね。そう考えるとまぁまぁ納得かな…。
逆にCDN全部通す想定だと普通はキャッシュしちゃいけないやつにno-cacheつけないと…みたいになるんですが、参考実装にCache-Control: no-cacheがなかったのはベンチがCache-Controlないやつはキャッシュしないと言う実装になってるからつける必要がなかったのと、たぶんCache-Controlでコントロールできることに気付かせないためというところですかね。結局の所結論は変わらず、「我々はやられてしまった」ということです。