http://japan.cnet.com/interview/35018591/
600人で構成されるチームを率いるとともに、
...
10億人に達しようとするユーザーを抱え、
...
すごい規模だな。
私は毎週会議を開いて、発生した問題をすべて検討しています。
...
一方われわれは、フォローアップに非常に力を入れてきました。
イシュートラッキングしているシステムに何を使ってるか、
どう運用しているかがとっても気になるところ。
われわれは「(Apache)Hadoop」に多額の投資をしています。
現在Hadoopにあるわれわれの最大のクラスタは100ペタバイトを超えています。
...
100ペタバイトはそう遠くない将来に数エクサバイトになります。
数年後には、100ペタバイトはわれわれとって当たり前のものになるでしょう。
Hadoop のノウハウは今後は、RDBのノウハウ同様、インフラエンジニアには
必要な教養になる、ってことなんだろうなあ。
われわれは最終的に、データセンター内部の全てを変更し、ネットワークトポロジー全体を
改良することになりました。同データセンター向けに全く新しい世代のサーバを導入し、
構築することになりました。
そのため、ほんの数カ月前から大幅な変更を加えました。
やり直すことが正しいと考えたからです。
噂のOpenFlowの導入もこのタイミングなのかしら???