ジェフディーンとサンジェイジェマバット
ジェフディーンに関する真実は、2007年4月1日に明らかになりました。 Googleの最初で最も価値のある従業員の1人であるディーンに関する楽しい事実のリストが、Googleの内部リソースに掲載されました。
「ジェフディーンがチューリングテストに失敗すると、 彼は1秒未満で203番目のフィボナッチ数を計算しました。
ジェフディーンは、提出する前にコードをコンパイルして実行するだけで、コンパイラとCPUのバグをチェックします。
以前は、真空での光速は時速35マイルでした。 ジェフディーンは週末に光の物理学を最適化した」( 詳細 )
これらの事実はすべて、もちろんフィクションでした。 しかし、真実からそう遠くない。 それらは、チャック・ノリスに関する事実との類推によって、ケントン・ウォーダ(別のグーグル従業員)によって発明されました。 バルダはシークレットのままにしようとしましたが、ディーンはまだそれを理解していました。
Google以外では、Jeff Deanという名前はユニットから聞いています。 社内では、彼は不安を感じています。 ディーンの参加により、Googleのコアテクノロジーが作成されました。このおかげで、今日の検索大手はインターネットを支配しています。
多くの人が、コンピューターマウス、レーザープリンター、ラップトップ、インターネットプロトコル、グラフィカルインターフェイス、WYSIWYGの原理、およびその他の重要な技術を考案した科学センターであるXerox PARCについて聞いたことがあります。 Googleシンクタンクについては、ほとんど知られていません。 Googleはその秘密を慎重に守っており、ディーンなどの従業員自身は宣伝に努めていません。 一方、Googleは当時のXerox PARCです。
「Googleは世界中から最も才能のある人々を集めました。 ワシントン大学の素粒子物理学教授であり、 Cloudantの主任研究者であるマイクミラーは、次のように述べています。
Googleのキーテクノロジーは、膨大な数のサーバーを管理するテクノロジーです。 これらはGoogleファイルシステム、MapReduce、BigTableであり、オンラインアプリケーションの負荷を小さく分割して数千台のマシンに分散するプログラムです。 これらは、Googleソフトウェア用に特別に設計された新世代のサーバー、ネットワーク機器、データセンターです。 Googleデータセンターはanthillに似ています。システムの各コンポーネントは独自の小さなことを行いますが、同時にデータセンター自体は全体として機能します。
シリコンバレーがソーシャルネットワークとタッチスクリーンに夢中になっていた頃、Googleはネットワークインフラストラクチャを再構築していました。 すぐに、他のオンラインジャイアントがそれに続きました。 Google File SystemとMapReduceは、Hadoop分散コンピューティングシステムを作成するように他の人を刺激しました。 BigTableはNoSQLの動きを引き起こしました。 また、データセンター機器に対するGoogleのアプローチは、Facebook、Amazon、Microsoftなどによって取り上げられました。
主要なWebテクノロジーの開発に対するAmazonの影響も素晴らしいです。 しかし、Googleの影響ははるかに広いです。 発明が主に他社によって使用されているゼロックスPARCとは異なり、Googleは独自の技術を最大限に活用しています。 GFSとMapReduceのおかげで、同社は世界のどこよりもはるかに優れています。 現在、それらは新しい世代の技術に置き換えられています。 そして再び、全世界が遅れています。
双子
ケントン・ウォートはエイプリルフールのジョークのターゲットとしてジェフ・ディーンを選んだ。 ディーンは、Googleの「スーパーマン」の最も明確な例です。 しかし、他の選択肢がありました。
たとえば、Deanの長期パートナーであるSanjay Gemavatです。 2004年に、彼らは、世界が最初にMapReduceの詳細を学んだドキュメントの著者としてリストされました。 BigTableの開発に大きな役割を果たしました。 そして、彼ら(ともう1人)が最初にGoogleファイルシステムについて話しました。
DeanとGemavatは緊密に連絡を取り合っているため、同じコンピューターに座っていることさえあります。 これにより、Gemavatが印刷されます。 そして、別々に作業するときは、検証のためにお互いにコードを送信します。 コードに問題がない場合、検証者は「LGTM」(「Looks good to me」)などのように応答します。
彼らは約20年前、インターネット以前の時代にDECの研究所で会いました。 DeanはWestern Reserarch Labにいましたが、Gemavatはそこから2ブロック、システム研究センターで働きました。 DECでは、Javaおよびサーバーソフトウェア用の新しいコンパイラを作成していました。
90年代後半、DECは最高の状態ではありませんでした。 同社はRISCアーキテクチャに基づいてサーバーを作成しましたが、他の全員は安価なx86チップに切り替えました。 1998年、DECはCompaq(および後にHP)の一部になりました。
合併後の企業では、研究所はもはや必要ありません。 人々の脱出が始まった。 誰かがMicrosoftを辞め、シリコンバレーに新しいオフィスを設立し、VMwareに、Googleに新しいオフィスを設立しました。 皮肉なことに、DECはGoogleが登場したまさにその年に姿を消しました。 同時に、Xerox PARCとBell Labsは崩壊しました。
Dean、Gemavat、および他のDEC従業員数人— Mike Burroughs、Sung-Tak Leung、LuisAndréBarrosoはGoogleに移行することを決定しました。 当時、彼らは仕事をするのに面白い場所を探していました。 しかし、Googleが無意識のうちにDECの相続人となったのはそのような状況でした。 最初の検索エンジンであるAltaVistaは、DECで作成されました。 彼女は大きくて遅い車に取り組んだ。 Googleは別の方法を採用しました。小規模サーバーと安価なサーバーの間で負荷を分割するテクノロジー(GFS、MapReduce、BigTable)を作成しました。
DECリサーチセンターの元の建物。 これは現在、Amazonオフィスです。
ジェフディーンと彼の指導者
ジェフディーンはGoogleに初めてアクセスしました。 彼は彼の学術指導者であるウルス・ホルツェに続いてそこに現れました。
HolzeはGoogleの最初の10人の従業員の1人であり、エンジニアリングの最初の副社長でした。 彼は約35のデータセンターを持つGoogleのインフラストラクチャを監督しています。 彼はカリフォルニア大学サンタバーバラ校からグーグルに来て、それ以前はスタンフォード大学でデビッド・ジュンガーの指揮の下でウェブ技術に取り組んでいました。
スーパーバイザーダイナはユンガーに学びました。 その結果、ホルスは学部長の学術指導者になりました。 1999年、Jeff DeanはスタートアップMySimonのDECを去りました。 しかし、その後彼はホルツと出会いました。ホルツはすでにGoogleで働いていました。 ディーンは空席について彼に尋ねた。 そして、彼はすぐにラリーペイジから仕事の招待状を受け取りました。
最初、ディーンは広告システムを開発していました。 しかし、彼はすぐに基本技術に切り替えました。Googleのインフラストラクチャは、インターネットの急速な成長にほとんど対処できませんでした。
Deanに続いて、DECの友人はGoogleに移りました-Sanjay Gemavat、Krishna Bharat、およびMonika Hensinger。 さらに数人が続きました。
次の3〜4年で、ディーンとジェマバットは、Google検索テクノロジーのいくつかの反復を作成しました。 彼らの組合はどのように配置されていますか? 非常に多くの場合、彼らは同じコンピューターに座って、バケツでカプチーノを飲みます。 ディーンはアイデアであふれ、ゲマバトは彼を抑制し、思考の方向性を修正し、印刷します。 ヘマバット自体はそれほど情熱的ではなく、正しいやり方を心配することがよくあります。 そして、ディーンは彼の尽きることのないエネルギーで状況を救います。
DeanとHemavatの最も注目すべきブレークスルーは、2000年代初期のGFSとMapReduceの作成でした。 これらのテクノロジーの最も注目すべき側面は、1つ以上のサーバーに障害が発生してもクラッシュしないことです。 Googleのような数万台の安価なサーバーを扱う場合、テクノロジーは常にクラッシュします。 GFSとMapReduceのおかげで、複数のマシンでデータのコピーを作成できます。 一方が破損した場合、もう一方がそれを置き換えます。
BigTableは、巨大なデータベースのように機能します。 通常のデータベースのような制御は提供しませんが、同じマシンで実行されているプラットフォームでは利用できない大量の情報を操作できます。
決定的な議論としてのクレームブリュレ
ルイスアンドレバローゾもDECからGoogleに移行しました。 しかし、彼は行くことができませんでした。
2001年、彼はGoogleとVMwareの両方を招待していました。 両社で数回会議を行った後、バローゾは各会社に有利な多数の議論をまとめた。 Googleで働く122の理由とVMwareで働く同じ理由。
その後、バローゾはディーンと話をし、グーグルのシェフからのクレームブリュレのリストに含めたかどうか尋ねました。 いいえということが判明しました。 クレームブリュレはバローゾのお気に入りのデザートでした。 翌朝、彼はGoogleの申し出を受け入れました。
DECでは、バローゾは最初のマルチコアプロセッサの作成に参加しました。 Googleで当初はソフトウェアの仕事をしていましたが、すぐにHoltseが会社の物理インフラストラクチャ全体の責任者に任命されました。
結果はすぐに来ました。 2003年、Googleはアジアの工場で独自の設計のサーバーを最初に注文しました。 各サーバーには、電源がオフになるとオンになる12ボルトのバッテリーが含まれていました。 これは、データセンターに大規模なUPSを供給するよりもはるかに経済的であることが判明しました。
サーバーを処理した後、Googleはデータセンターの建物の設計を始めました。 その前に、彼女はちょうどそれらを借りました。 新しい世代の最初のデータセンターは、低税率で安価な電力を使用して、オレゴン州の農村部に開設されました。 しかし、主なアイデアは、複雑なもの全体を全体として機能させることでした。 バローゾとホルツはそれを「倉庫規模のコンピューティング」と呼んだ。
データセンターの建設中に、新しいアプローチが採用されました。 サーバーと関連機器は標準の鉄道コンテナに配置され、コンテナ自体はデータセンターの「アセンブリ」のモジュールとして使用されました。 オレゴンのデータセンターは2005年に運用を開始しましたが、Googleは2009年にのみその詳細を明らかにしました。
テスラ効果
ラリー・ペイジはニコラ・テスラに関する流行を持っています。 スティーブン・レビーの著書「In the Plex」によると、ペイジはテスラをエジソンと同等の発明者として挙げているが、彼の発明を商業化することができないことに注意している。
ニコラテスラの物語は、明らかにGoogleのリーダーシップの考え方に影響を与えました。 Appleと同様に、Googleもその主要なテクノロジーを極秘にしています。 そして、もし何かが言えば、数年後にだけです。 「できる限りオープンにしようとしています」とHolze氏は言います。 「私たちはアイデアを共有していますが、実装方法は共有していません。」
2003年から2004年にかけて、GoogleはGFSとMapReduceについて話しました。 その後まもなく、開発者のDoug Cuttingは、後にHadoopに変換されるオープンソースの検索エンジンであるNutchを作成しました。 HadoopはFacebook、Twitter、Microsoftを採用し、その後、他の企業が自ら立ち上げました。 Hadoopを中心に、数億ドルの市場が形成されました。
BigTableでも同じ話が繰り返されました。 Googleは2006年にこの技術を明らかにし、2007年にAmazonはDynamoシステムについて話しました。 これが、数千台のマシンにスケーラブルなデータベースを作成しようとするNoSQLの出現に弾みをつけました。
「NoSQLソリューションを見ると、それがGoogle BigTableまたはAmazon Dynamoに基づいていることがすぐにわかります」とJoyentの Jason Hoffman氏は言います。 「そしてもしGoogleとAmazonが何も言わないなら、世界はどこにあるのでしょうか?」
Googleのハードウェアテクノロジーについてはまだほとんど知られていません。 自社サーバーは現在、Facebook、Amazon、Microsoftなど多くの企業によって設計されています。 また、モジュラーデータセンターはインターネットのバックボーンになりました。
元マイクロソフトデータセンターのスペシャリストであるマイクマノスは、モジュラーデータセンターがGoogleの発明であることを否定しました。 彼によると、似たようなものが1960年代に戻ってきました。 それでも、Googleのメリットはそれを減じません。 GFS / MapReduceと同様に、同社は新しいアイデアを解決するために古いアイデアを採用しました。
Googleの過去は未来です
Googleはすでに多くの生殖技術を置き換えています。 GFSはColossusに置き換えられ、検索インデックスはCaffeineシステムを使用して形成されます。これはMapReduceの一部を含み、まったく異なる方法で動作します。 また、言及する価値があるのは、Pregel(データ間の関係のマップを作成するためのベース)とDremel(高速データ分析システム)です。 Pregelにはすでにいくつかのオープンソースアナログがあり、Dremelには少なくとも1つあります。
これは氷山の一角にすぎません。 確かに私たちがまだ何も知らない他の開発があります。 昨年5月、カリフォルニア大学バークレー校の教授であるEric Brewerは、新世代のGoogleインフラストラクチャを作成するために辞任すると発表しました。 「クラウドコンピューティングはまだ非常に若い」と彼は別れを告げた。 「さらに多くのことが必要です。」 多くを達成するために。」
Brewerの例-分散コンピューティングの最高の専門家の1人-は、GoogleがゼロックスPARCの相続人以上のものになったことを示しています。 GoogleはXerox PARCよりも優れています。
DEC(システムリサーチセンター、SRC)は、以前Xerox PARCにコンピューターラボを設立したRobert Taylorによって作成されました。 企業の注文は、発明から完成品に至るまでに何年もかかるようなものでした。 80年代の初めまでに、テイラーはそれに飽きていて、12月に出発しました。 しかし、同じ話がそこで繰り返されました。 そして、それがジェフディーンが働いた場所でした。
Googleはこの問題を解決できました。 この会社は、科学的研究(誰もまだ解決していない問題を解決する)と商業的企業(迅速な実装)の利点を結合するように構築されました。
一部のGoogle従業員にとって唯一の大きな障害はプライバシーのままです。 テクノロジーの最前線で仕事をすると同時に、社外の業績について話すことができないのは心理的に困難です。 Xerox PARCは今日のGoogleほど優れたものではありませんでした。
ケードメッツ/ 有線