インターネットは過剰と過密による窒息死を防ぐためにHTTPからIPFSへ大改造すべきだ | TechCrunch Japan

[筆者: Amber Case](位置対応ソフトウェア企業GeoloqiのCEO、同社は2012年にEsriが買収。過去にSXSWiやTEDでキーノートスピーカーを経験。 Calm Technology: Designing for Billions of Devices and the Internet of Thingsの著者。)

IPFSはまだ、シリコンバレー界隈でもよく知られていない技術だが、オープンソースの人たちのあいだでは口コミで急速に広まりつつある。多くの人たちが、インターネット上のファイル転送やストリーミングのスピードを大きく高速化する技術として、IPFSに注目している。

でも私から見れば、それは単なる高速化技術ではなくて、実際はもっと重要な技術だ。IPFSによって、Webサイトはコンテンツやサービスの起点となる中心的なサーバが不要になり、インターネットのアーキテクチャを抜本的に変える良い機会になると思われる。しかしそのためには、業界が未来に関して抱える自己矛盾を早期に(間に合うタイミングで)解決する必要がある*。〔*: 一点サーバ主義はボトルネックだが今の利益の源泉、など。〕

それではまず、背景事情から説明しよう。

なぜWebは遅くて脆くて何でもすぐなくなるのか

IPFSは新しい、ピアツーピアのハイパーメディアプロトコルで、今のWebを支配しているHTTP(Hypertext Transfer Protocol)を補完、もしくは置換する規格だ。HTTPにはこんな問題がある: どこかのWebサイトを訪れるとき、ブラウザはそのサイトをサーブしているコンピュータに直接接続することになり、サーバが遠くにあって転送処理が大量の帯域を消費するときでも、それは変わらない。

データの転送が複数のネットワークにまたがる場合は、データのプロバイダは各ネットワークで課金され、帯域を浪費する。しかもHTTPでは一度に一つのコンピュータからファイルをダウンロードし、複数のコンピュータから同時に少しずつダウンロードすることができない。

そのため今日のわれわれは、遅くて高価なインターネットを我慢し、しかも合衆国などでは最後の1マイルを提供するキャリアの貪欲と、加速度的に増加するモバイルデバイスからの接続リクエストに苦しめられる。その結果今のインターネットは、遅くて高価なだけでなく、信頼できない。HTTP転送は、何かの事情でリンクが一つ切れただけで、転送は完全に断たれる。Webページやメディアファイル(画像、ビデオなど)のロードが遅いとき、その犯人はたいてい、HTTPチェーンを構成するリンクのひとつだ)。

IPFSでインターネットを改造する

IPFS(InterPlanetary File System)(惑星間ファイルシステム)は、J.C.R. Lickliderのヴィジョン“intergalactic” Internet(“惑星間”インターネット)に触発されて、Juan Benetが構想した。10代でメキシコから合衆国に移住した彼はスタンフォード大学でコンピュータ科学の学位を取り、その後自分の会社を興したが、それは2013年にYahoo!が買収した。その後Y Combinatorに在籍した彼は昨年Protocol Labsを作ってIPFSの普及活動を開始し、20年間既成事実のようにのさばってきたプロトコルを置換する、という謙虚な*目標を掲げた。〔*: 謙虚な…大事業を“ささやかな”と形容するようなジョーク。〕

ピアツーピアの分散ファイルシステムであるIPFSは、すべてのコンピューティングデバイスを同じファイルシステムで結びつける。Juanによると、それによってIPFSは、HTTPの欠点のいくつかを取り除く。中でもとくに重要なものが二つある:

Juanは語る: “IPFSでは、アドレスとしてコンテンツを指定し、起点のサーバを指定しない。コンテンツは特定のサーバ上ではなく、どこかに恒久的に保存できる。そのコンテンツを、ユーザにとても近いところに保存してサーブできるし、極端に言うと同じ部屋の別のコンピュータでもよい。指定するアドレスがIPではなくコンテンツになると、データを特定のホストに縛られずに検証できる。単一のサーバを指定するHTTP方式では、それが信頼できないホストかもしれない。ユーザのデバイスがそのコンテンツを一度持てば、それを無期限にキャッシュすることもできる”。

IPFSはHTTPベースのインターネットにつきまとっていたセキュリティの問題も解決する。コンテンツをアドレスし、コンテンツにサインインするIPFSベースのサイトでは、DDoS攻撃が不可能である。また、Webサイトが突然落ちるという、従来からよくあるダメージを減らすためにIPFSでは重要な公共的コンテンツをアーカイブし、重要な情報を容易に(分散的に)保存できる。

IPFSによってインターネットが、われわれが理想としてきたシステムに成長できる。

IPFSの究極の利点は、コンテンツの分散配布だ。言い換えるとコンテンツへのアクセスが、特定のサービスの調子の良し悪しに左右されない。オフラインでのアクセスも可能だ。“IPFSでは、WebサイトやWebアプリケーションに特定の起点サーバというものがない”、とJuanは説明する。“それらは、Bitcoinのネットワークが分散しているように分散できる”。まさにそれこそが、今のHTTPには逆立ちしてもできないことであり、とくにそれほど接続性の良くないネットワーク(すべての途上国)や、大都市圏以外の地域にとって恩恵だ。

2月にアルファでリリースされたIPFSを、今多くのアーリーアダプター(初期的採用者)たちが実験している。たとえば9月8日にはNeocitiesが、メジャーなサイトとしては初めてIPFSを実装した。それはInternet Archiveからの分散Webの呼びかけに応えたものだ。今や、Webサイトがどんどん減っている。長い年月の間にサイトのオーナーたちが、それらを放棄し、無メンテないし閉鎖してしまうからだ。インターネットという、記憶/記録の集大成が、崩壊しつつある。IPFSの今後の普及が早ければ、恒久的なコンテンツやサービスが増え、崩壊を最小限で食い止められるだろう。

しかし、“ピアツーピア”という言葉を聞いただけでびびってしまう大企業が、Neocitiesの例に倣って、未実証のプロトコルを採用するだろうか? この点に、最後の問題がある。

IPFSがインターネットビジネスの将来にとって重要である理由

私の次の本でも説明しているが、インターネット上のコンテンツはますます、そこから得られる利益よりも制作と配布の費用の方が上回るようになりつつある。そのためメジャーなインターネット企業でも、コンテンツの需要にいち早く応えるのが難しくなっている。Akamai、Google、Amazonなどの大企業では、大量のエンジニアを、このたった一つの問題への対応に投入している。

でも、最悪の状態が訪れるのはこれからだ。低価格のスマートフォンの大普及により、全世界のコンテンツ消費者の全員が次の10年間でオンライン化する。そして物のインターネット(Internet of Things, IoT)が何十億ものデバイスをインターネットに接続することによって、インターネットの過密と、それによる性能劣化はさらに激化する。

かなり前から緊急に必要になっているのは、私が小さなシンギュラリティ(micro-singularities)〔Wikipedia〕と呼んでいるものに対するヘッジだ。その超ミニシンギュラリティにおいては、ヴァイラルなイベントが突然何10億ものインターネットユーザをフリーズし、システム全体が窒息する。これに自然災害やそのほかの緊急事態が絡めば、文字通り人命に拘わるだろう。

Netflixは最近、ストリーミングのための大規模なピアツーピア技術の実験を開始した。これだけ大きくてユーザ数も多い企業が、早くから、よりスマートなコンテンツ配布方法を探求していることは、希望の兆候かもしれない。NetflixやYouTubeのような帯域大食らいの人気サービスは、IFPSで改造されたインターネットの上で、より一層栄えるだろう。そしてコンテンツをサーブするために要する時間と費用も、激減する。

IPFSでネットワーク上のサービスが良くなるだけでなく、IPFSによってインターネットが、われわれが理想としてきたシステムに成長できる。その理想は、現在のプロトコルでは絶対に実現しない。世界中の人びとを(オフラインにおいてさえ)本当に結びつけ、人間の現状が恒久的にそしてコンスタントに進化し、誰もが望むような未来が実現していく。そんな理想は。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa