投稿日: May 20, 2015 1:0:44 AM
日本では1995年のWindows95の発売がインターネット爆発的普及の引き金になったのだが、その前のWindows3.1の頃からホームページをつくるようなことはだいぶ始まっていた。当時のwwwサーバのホスティングではベコウアメなどが有名だったように思う。こういうところはサーバのパソコン1台に100ほどのドメイン(~で始まる似非ドメインだが)を入れていたように記憶する。回線も一般にはISDNを使っているような状態だったから、ちょっと混むと檄遅になるのだが、常時訪問者がいるわけではないようなサイトでは、こんな環境でも何とかやっていけた。まだセキュリティ問題もそれほど騒がれず、草の根的牧歌的な時代であった。
それから先のインターネットの歴史は1万倍くらいスケールが大きくなったという点で、根本原理は大きくは変わっていない。国民の大半が日常的にネットを使い、巨大データセンタは100万CPUが動いているように、データ通信は水光熱と同じ様な社会的なインフラになったのだが、データセンタの一つのCPUチップが何人の人間にサービスを提供しているかをざっと計算すると、劇的な進歩があったとは考えられない。要するに力技でCPUを増やして需要を賄ってきたということだろう。しかし草の根時代の延長では効率改善とか今後の発展というのは難しい。
一部のストリーミングとかアクセスが集中するものの場合は負荷分散をサーバの中だけでなく、ネットワークのノードの単位でもするようになっているが、インターネットのネットワークそのものがインテリジェントになる方向にはまだ進んでいない。つまり不要なトラフィックは野放し状態であると思う。ネットワークをインテリジェントにすることは、完全にオープンなシステムでは難しいのだろうが、逆に言えば完全にオープンでなければならない用途って何があるのだろうか?
すでにネットワークは検閲を受けているし、検索エンジンにもいろいろな注文が付けられて対応している時代なのだから、完全にオープン等ではなくなっている。Googleのサービス戦略も、ChromeとかGmailとかさまざまなアプリなど他のサービスも連携して動いているのは完全オープンとは逆の指向である。
どうもインターネットのオープン性を追求するよりもサービス連携などでインテリジェント化する方向に進んでいると思う。
Top → Articles デジタルメディアビジネスの記事 過去記事→Archive