Web2.0とは何か

 Publishedon O'Reilly (http://www.oreilly.com/)
'Reilly (http://www.oreilly.com/)上に出版

http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html
 Seethis if you're having trouble printing code examples
もしあなたがコード例を印刷するのにてこずっているなら、 こちらを参照してください。http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html

What Is Web 2.0
Web2.0とは何か

Design Patterns and Business Models for the NextGeneration of Software
ソフトウェアの次世代のためのデザインパターンとビジネスモデル

 by Tim O'Reilly
09/30/2005
テイム・オイレリー著
 09/30/2005 

The bursting of the dot-com bubble in the fall of 2001marked a turning point for the web. Many people concluded that the web wasoverhyped, when in fact bubbles andconsequent shakeouts appear to be a common feature of all technologicalrevolutions. Shakeouts typically mark the point at which an ascendanttechnology is ready to take its place at center stage. The pretenders are giventhe bum's rush, the real success stories show their strength, and there beginsto be an understanding of what separates one from the other.
2001年の秋にITバブルがはじけたことはWebのための転機を機能づけた。 多くの人々が、実際、バブルとその結果としての暴落がすべての技術革命の共通の機能であることが顕になると、Webが誇大宣伝され過ぎていたと結論した。 暴落は、典型的に優勢な技術がセンターステージにおいてその場所をとる準備ができているポイントをマークする。王位ねらいは浮浪者の殺到を与えられ、真の成功物語がそれらの力を示し、そこで他からあるもの分離するものは何かの理解をし始めるのだ。 

 The concept of "Web 2.0" began with a conferencebrainstorming session between O'Reilly and MediaLiveInternational. Dale Dougherty, web pioneer andO'Reilly VP, noted that far from having "crashed", the web was moreimportant than ever, with exciting new applications and sites popping up withsurprising regularity. What's more, the companies that had survived thecollapse seemed to have some things in common. Could it be that the dot-comcollapse marked some kind of turning point for the web, such that a call toaction such as "Web 2.0" might make sense? We agreed that it did, andso the Web 2.0 Conference was born.
「Web2.0」の概念はオレイリーとメデイアライブ・インターナショナル間の会議ブレーンストーミングセッションから始まった。 デール・ドーティー、Webの開拓者とオレイリー副社長は、「破綻した」ことからかけ離れて、わくわくする新しいアプリケーションとサイトが驚くべき規則性で起こるという状態で、Webは今までよりいっそう重要となっていたことを指摘した。 その上、崩壊から生き残った企業は共通に若干のものを持っているように思われた。「Web2.0」のような行動への呼びかけが意味をなすかもしれないように、それはドット・コム崩壊がWebのために何らかの種類の転機をマークしたということであり得たのではないか? 我々はそれがそうだということに同意し、それでWeb2.0会議は生まれた。

 In the year and a half since, the term "Web 2.0"has clearly taken hold, with more than 9.5 million citations in Google. Butthere's still ahuge amount of disagreement about just what Web 2.0 means, with some peopledecrying it as a meaningless marketing buzzword, and others accepting it as thenew conventional wisdom.
それ以来、一年半、「Web2.0」という用語は明らかにGoogleで、950万以上の引用をされ、定着した。けれども、若干の人々がそれを無意味なマーケティング流行語として非難して、他のものがそれを新しい世間一般の意見として受け入れるという状態で、まだWeb2.0が何を意味するかについてさえ、大量の反対がある。 

 This article is an attempt to clarify just what we mean byWeb 2.0.
この論文は我々がWeb2.0によって何を意味するかを単に明白にする試みである。

In our initial brainstorming, we formulated our sense ofWeb 2.0 by example:
我々の最初のブレーンストーミングで、我々は例によってWeb2.0の我々の感覚を定式化した: 

 Web 1.0                        -->      Web 2.0
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

DoubleClickダブルクリック -->Google AdSenseグーグルアドセンス

Ofotoオフト                     -->Flickrフリッカー

Akamaiアカマイ               -->BitTorrentビットトレント

mp3.com                       -->Napsterナプスター

Britannica Onlineオンラインで百科事典-->Wikipediaウイキペデイア

personal websitesパーソナルなウェブサイト-->bloggingブログ作成

evite                                - ->upcoming.org and EVDB

domain name speculationドメイン名推測-->search engine                                                               optimizationサーチ・エンジン最適化

page viewsページ閲覧          -->cost per clickクリック毎のコスト

screen scraping画面の切り取り-->webservicesWebサービス

publishing出版-->participation参加

content management systems
コンテンツマネージメントシステム-->wikis

directories (taxonomy)
ディレクトリ(分類学)  -->      tagging("folksonomy")タグを付ける                                                 (「フォークソノミー」)

stickiness固執       -->syndication多数メデイアに同時配給
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

The list went on and on. But what was it that made usidentify one application or approach as "Web 1.0" and another as"Web 2.0"? (The question is particularly urgent because the Web 2.0meme has become so widespread that companies are now pasting it on as amarketing buzzword, with no real understanding of just what it means. Thequestion is particularly difficult because many of those buzzword-addictedstartups are definitely not Web 2.0, while some of the applications weidentified as Web 2.0, like Napster and BitTorrent, are not even properly webapplications!) We began trying to tease out the principles that aredemonstrated in one way or another by the success stories of web 1.0 and by themost interesting of the new applications.
リストは長く続いた。 けれども我々を1つのアプリケーションあるいはアプローチ「Web1.0」と比べて「Web2.0」は別のものと認知させたものが何であったか? (問題は、Web2.0ミームで、マーケティング流行語として、さまざまな企業が今それを貼っているほど広範囲に広がっているから、特に緊急である。問題は、それらの流行語-中毒になった新企業の多くが確かにWeb2.0ではないから、特に難しい、他方NapsterとBitTorrentのように、我々が、Web2.0であると認知したアプリケーションの若干が適切に言うとWebアプリケーションでさえない!)我々はWeb1.0の成功物語と、新しいアプリケーションの最も面白いものによって何らかの方法で証明される原則を引き出そうとし始めた。 

 1. The Web As Platform
1.プラットホームとしてのWeb 

 Like many important concepts, Web 2.0 doesn't have a hardboundary, but rather, a gravitational core. You can visualizeWeb 2.0 as a set of principles and practices that tie together a veritablesolar system of sites that demonstrate some or all of those principles, at avarying distance from that core.
多くの重要な概念のように、Web2.0が確固たる境界線を持っていないが、しかし、どちらかと言えば、重力のコアである。それらの原則のいくらかあるいはすべてを証明するサイトの本当の太陽系をそのコアからのさまざまな距離において結びつける原則のセットとしてあるいは実践としてあなたはWeb2.0を視覚化することができる。 

 Figure 1 shows a "meme map" of Web 2.0 that wasdeveloped at a brainstorming session during FOO Camp, a conference at O'ReillyMedia. It's very much a work in progress, but shows the many ideas that radiateout from the Web 2.0 core.
図1がFOOキャンプ、オレイリーのメディアにおいての会議の間にブレーンストーミングセッションにおいて開発されたWeb2.0の「ミームマップ」を示す。 それは進行中の大変な仕事であるが、Web2.0コアから外に発散する多くの考えを示す。 

 For example, at the first Web 2.0 conference, in October2004, John Battelle and I listed a preliminary set ofprinciples in our opening talk. The first of those principles was "The webas platform." Yet that was also a rallying cry of Web 1.0 darlingNetscape, which went down in flames after a heated battle with Microsoft.What's more, two of our initial Web 1.0 exemplars, DoubleClick and Akamai, wereboth pioneers in treating the web as a platform. People don't often think of itas "web services", but in fact, ad serving was the first widelydeployed web service, and the first widely deployed "mashup" (to useanother term that has gained currency of late). Every banner ad is served as aseamless cooperation between two websites, delivering an integrated page to areader on yet another computer. Akamai also treats the network as the platform,and at a deeper level of the stack, building a transparent caching and contentdelivery network that eases bandwidth congestion.
例えば、最初のWeb2.0の会議で、2004年10月に、ジョン・バッテルと私は我々の冒頭の話で原則の初期的なセットをリストにした。 それらの原則の最初は「プラットホームとしてのWeb」であった。 それでもそれは同じくマイクロソフトとの激戦の後に攻撃に記されたWeb1.0お気に入りネットスケープの掛け声であった。 その上、Webをプラットホームとして取り扱うことにおいて、我々の最初のWeb1.0模範の2つ、DoubleClickとAkamai、が両方の開拓者であった。 人々がしばしばそれを「Webサービスである」と考えない、しかし実際、広告サービスは最初の広く実装するWebサービスであった。そしてそれは最初に広く実装した「mashup」(最近流通したもう1つの用語を使うが)であった。すべてのバナー広告が、さらにもう1つのコンピュータ上で読者に統合化されたページを届けて、2つのウェブサイトの間のスムーズな協力としてサポートされる。 Akamaiは同じく、バンド幅混雑を緩和するトランスペアレントなキャッシュしている、そしてコンテンツ配達ネットワークを構築して、プラットホームとして、スタックのもっと深いレベルにおいてネットワークを扱う。 

 Nonetheless, these pioneers provided useful contrastsbecause later entrants have taken their solution to the same problem evenfurther, understanding something deeper about the nature of the new platform.Both DoubleClick and Akamai were Web 2.0 pioneers, yet we can also see how it'spossible to realize more of the possibilities by embracing additional Web 2.0 designpatterns.
それにもかかわらず、後に参加者が、新しいプラットホームの性質についてもっと深い何かを理解して、さらにもっと、それらの解決を同じ問題に導いたので、これらのパイオニアは有用なコントラストを提供した。 DoubleClickとAkamai両方がWeb2.0の開拓者であったが、それでもなお、追加のWeb2.0デザインパターンを懐に受け入れることによって、我々は同じくさらなる可能性の多くを実現することがどのように可能であるかをもう見ることができる。 

 Let's drill down for a moment into each of these threecases, teasing out some of the essential elements of difference.
相違の本質的な要素の若干を引き出して、少しの間、これらの3ケースのそれぞれに穴を開けてみよう。 

 Netscape vs. Google
ネットスケープ対グーグル
 

 If Netscape was the standard bearer for Web 1.0, Google ismost certainly the standard bearer for Web 2.0, if only because theirrespective IPOs were defining events for each era. So let's start with acomparison of these two companies and their positioning.
もしネットスケープがWeb1.0で標準の旗手であったなら、GoogleはWeb2.0で、最も確かに標準の旗手であるが、たとえ、単にそれらのそれぞれのIPOがそれぞれの時代のための事象を定義していたとしてもである。それでこれらの2つの企業の比較と彼らの位置づけから始めよう。

 Netscape framed "the web as platform" in terms ofthe old software paradigm: their flagship product was the web browser, adesktop application, and their strategy was to use their dominance in thebrowser market to establish a market for high-priced server products. Controlover standards for displaying content and applications in the browser would, intheory, give Netscape the kind of market power enjoyed by Microsoft in the PCmarket. Much like the "horseless carriage" framed the automobile asan extension of the familiar,  Netscapepromoted a "webtop" to replace the desktop, and planned to populatethat webtop with information updates and applets pushed to the webtop byinformation providers who would purchase Netscape servers.
ネットスケープは古いソフトウェアパラダイムに関して「プラットホームとしてWeb」を考案した。:それらの主要商品はWeb ブラウザ、つまりデスクトップアプリケーションであった。そして彼らの戦略はブラウザ市場での彼らの支配を高価なサーバー商品のためのマーケットを確立するために使うはずであった。ブラウザでコンテンツとアプリケーションを表示する標準についてのコントロールが、理論上、ネットスケープに種類のPCマーケットでマイクロソフトによって享受された市場力を与えるであろう。「馬のない馬車」のような多くがなじみ深いものの拡張として自動車が考案されたように、ネットスケープはデスクトップを置き換えるために「webtop」を促進して、インフォメーション更新とネットスケープサーバーを購入するであろうインフォメーションプロバイダーによってwebtopに押しやられたアプレットをそのwebtopに移植することを計画した。 

 In the end, both web browsers and web servers turned out tobe commodities, and value moved "up the stack" to services deliveredover the web platform.
結局、Web ブラウザとWeb サーバの両方が商品であることが分かった。そして価値はWebプラットホーム上で配信されるサービスの「上のスタックに」に移動したのです。 

 Google, by contrast, began its life as a native webapplication, never sold or packaged, but delivered as a service, with customerspaying, directly or indirectly, for the use of that service. None of thetrappings of the old software industry are present. No scheduled softwarereleases, just continuous improvement. No licensing or sale, just usage. Noporting to different platforms so that customers can run the software on theirown equipment, just a massively scalable collection of commodity PCs runningopen source operating systems plus homegrown applications and utilities that noone outside the company ever gets to see.
Googleは、それと対照して、ネイティブのWebアプリケーションとして誕生し始めた。サービスとして、決して売られたり、あるいはパッケージ化されることはなく、しかし、顧客が、直接、あるいは間接的に、そのサービスの使用に応じて対価を支払うという状態で、提供されます。古いソフトウェア産業の装飾のいずれも存在していない。ソフトウェアリリースの予定もないし、ただ絶え間がない改良だけがある。 免許あるいは販売もなく、ただ利用があるだけ。 顧客がソフトウェアを彼ら自身の装置上で走らせることができるようにしたもので、異なったプラットホームに取り入れたり取り出したりしない。それは、単にオープンソースオペレーティング・システムに加えて自家製のアプリケーションを走らせている商品PCの大規模に拡大縮小可能なコレクションとグーグル企業の外の誰も決して見るようにならないユーティリティーなのだ。 

 At bottom, Google requires a competency that Netscape neverneeded: database management. Google isn't just a collection of software tools,it's a specialized database. Without the data, the tools are useless; withoutthe software, the data is unmanageable. Software licensing and control overAPIs--the lever of power in the previous era--is irrelevant because thesoftware never need be distributed but only performed, and also because withoutthe ability to collect and manage the data, the software is of little use. Infact, the value of the software is proportional to the scale and dynamismof the data it helps to manage.
本当は、Googleはネットスケープが決して必要としなかった能力を必要としています。:それはデータベースマネージメントである。 Googleは単なるソフトウェアツールのコレクションではないし、それは特化したデータベースである。 データなしでは、ツールは役に立たない;ソフトウェアなしでは、データは手に負えない。ソフトウェア免許とAPI管理は - 前時代の力のてこ であったが-無関係である。  なぜなら、ソフトウェアは単に実行されるだけで、決して配布される必要がないからだ。そして同じくデータを集めて、そして管理する能力なしは、ソフトウェアがほとんど役に立たないからである。実際、ソフトウェアの価値はそれが管理するのに助けとなるデータのスケールと活発さに比例している。 

 Google's service is not a server--though it is delivered bya massive collection of internet servers--nor a browser--though it isexperienced by the user within the browser. Nor does its flagship searchservice even host the content that it enables users to find. Much like a phonecall, which happens not just on the phones at either end of the call, but onthe network in between, Google happens in the space between browser and searchengine and destination content server, as an enabler or middleman between theuser and his or her online experience.
Googleのサービスは - それがインターネットサーバーの大規模なコレクションによって届けられるけれども- サーバーでもなく、- それがブラウザの中でユーザーによって経験されるけれどもブラウザでもない。それの旗手である検索サービスさえ、ユーザーに見いだすことができるようにするコンテンツのホストとして機能しない。電話とほとんど同じように、同様に電話の両端のいずれかの電話上で起きているだけでなく、両者の間のネットワーク上で起きている。Googleは、イネーブラーあるいはユーザーと彼もしくは彼女のオンライン経験との間の仲介人として、ブラウザとサーチ・エンジンと目的のコンテンツサーバー間の空間で、起きている。

 While both Netscape and Google could be described assoftware companies, it's clear that Netscape belonged to the same softwareworld as Lotus, Microsoft, Oracle, SAP, and other companies that got theirstart in the 1980's software revolution, while Google's fellows are otherinternet applications like eBay, Amazon, Napster, and yes, DoubleClick andAkamai.
ネットスケープとGoogle両方がソフトウェア企業だと描写されることができるであろう一方で、ネットスケープが1980年代のソフトウェア革命で彼らのスタートを得たロータス、マイクロソフト、オラクル、SAPや他の企業と同じソフトウェア世界に帰属したことは明確である、他方Googleの連中はeBay、アマゾン、Napster、そして、そう、DoubleClickとAkamaiのような他のインターネットアプリケーションの世界に帰属しているのである。 

 DoubleClick vs. Overture and AdSense
ダブルクリック対オーバーチャーとアドセンス 

 Like Google, DoubleClick is a true child of the internetera. It harnesses software as a service, has a core competency in datamanagement, and, as noted above, was a pioneer in web services long before webservices even had a name. However, DoubleClick was ultimately limited by itsbusiness model. It bought into the '90s notion that the web was aboutpublishing, not participation; that advertisers, not consumers, ought to callthe shots; that size mattered, and that the internet was increasingly beingdominated by the top websites as measured by MediaMetrix and other web adscoring companies.
グーグルのように、ダブルクリックは本当のインターネット時代の子である。それはサービスとしてソフトウェアを利用して、Webサービスという名前を持つずっと前に提供する能力がデータ管理で、そして、上記のとおり、Webサービス開拓者であったコアとなる適性を持っている。しかしながら、ダブルクリックは究極的にそのビジネスモデルによって制限された。 それは、消費者ではなく、広告主がショットをコールするべきである;その規模が重要で、Webは、参加ではなく出版についてであるということや、MediaMetrixや他のWeb広告の順位付け企業によって、インターネットがますますトップのウェブサイトによって支配されつつあるという90年代の概念を信じ込んだ。 

 As a result, DoubleClick proudly cites on its website"over 2000 successful implementations" of its software. Yahoo! SearchMarketing (formerly Overture) and Google AdSense, by contrast, already serve hundreds of thousands of advertisers apiece.
結果として、DoubleClickは誇らしげにそのウェブサイトでそのソフトウェアの「2000以上の成功した実装」を引用する。 Yahoo! サーチマーケティング(以前はオーバーチャー)とグーグルアドセンスは、それに対して、それぞれすでに何十万という広告主にサービスする。 

 Overture and Google's success came from an understanding ofwhat Chris Anderson refers to as "the longtail," the collective power of the small sites that make up the bulk ofthe web's content. DoubleClick's offerings require a formal sales contract,limiting their market to the few thousand largest websites. Overture and Googlefigured out how to enable ad placement on virtually any web page. What's more,they eschewed publisher/ad-agency friendly advertising formats such as bannerads and popups in favor of minimally intrusive, context-sensitive,consumer-friendly text advertising.
オーバチャーとグーグルの成功はクリス・アンダーソンが「長い尾」として参照するもの、Webのコンテンツの大部分を構成する小さいサイトの共同の力の理解から来た。 ダブルクリックの提供は、彼らのマーケットを2-3千の最大のウェブサイトに制限して、正式の販売契約書を必要とする。オーバーチャーとグーグルは事実上Web ページでどのように広告配置を可能にするべきか理解した。 その上、彼らは最小限度でも侵入的な、文脈依存の、消費者に友好的なテキスト広告に賛成するバナー広告とポップアップのような発行人/広告代理店に友好的な広告フォーマットを避けた。

The Web 2.0 lesson: leverage customer-self service andalgorithmic data management to reach out to the entire web, to the edges andnot just the center, to the long tail and not just the head.
Web2.0の教訓:全部のWebに、真ん中だけではなく、端のほうにも、頭だけではなく、長い尾にも手を伸ばすために顧客-セルフサービスや、アルゴリズムのデータ管理をてこ入れしなさい。 

A Platform Beats an Application Every Time
プラットホームが毎回アプリケーションに打ち勝つ 

 In each of its past confrontations with rivals, Microsoft has successfully played the platform card, trumping even the most dominant applications. Windows allowed Microsoft to displace Lotus 1-2-3 with Excel, WordPerfect with Word, and Netscape Navigator with Internet Explorer.
ライバルとのその過去の対決のそれぞれで、マイクロソフトは成功裏に、最も最有力のアプリケーションにさえ切り札で勝って、プラットホームカードをプレーした。 Windowsはインターネット・エクスプローラでマイクロソフトにエクセル、Wordを持っているWordPerfectとネットスケープ・ナビゲータでロータス 1-2-3に取って代わることを許した。 

 This time, though, the clash isn't between a platform and an application, but between two platforms, each with a radically different business model: On the one side, a single software provider, whose massive installed base and tightly integrated operating system and APIs give control over the programming paradigm; on the other, a system without an owner, tied together by a set of protocols, open standards and agreements for cooperation.
今回は、けれども、2つのプラットホームの間に衝突は中間でプラットホームとただアプリケーション、ではない、根本的に異なったビジネスモデルを持っているそれぞれが:その大きい所有者数としっかり統合化されたオペレーティング・システムとAPIがプログラミングパラダイムについてのコントロールを与える1つのサイド、一つのソフトウェアプロバイダの上に;他、一緒に1セットのプロトコルに縛られた所有者がないシステム、公開されている標準と協力のための協定の上にである。 

 Windows represents the pinnacle of proprietary control via software APIs. Netscape tried to wrest control from Microsoft using the same techniques that Microsoft itself had used against other rivals, and failed. But Apache, which held to the open standards of the web, has prospered. The battle is no longer unequal, a platform versus a single application, but platform versus platform, with the question being which platform, and more profoundly, which architecture, and which business model, is better suited to the opportunity ahead.
WindowsはソフトウェアAPIによって専有のコントロールの頂点を表す。 ネットスケープはマイクロソフト自身が他のライバルに対して使用して、そして失敗した同じテクニックを使ってマイクロソフトからコントロールを奪い取ろうとした。 けれども、Webの公開されている標準に固執したアパッチは成功した。 戦いはもう等しくないではなく、プラットホーム対一つのアプリケーションである、しかしプラットホーム対プラットホームが、質問がどのプラットホームか、そして、いっそう非常に、どのアーキテクチャか、そしてどのビジネスモデルかであるという状態で、前方にもっと良く機会に適している。 

 Windows was a brilliant solution to the problems of the early PC era. It leveled the playing field for application developers, solving a host of problems that had previously bedeviled the industry. But a single monolithic approach, controlled by a single vendor, is no longer a solution, it's a problem. Communications-oriented systems, as the internet-as-platform most certainly is, require interoperability. Unless a vendor can control both ends of every interaction, the possibilities of user lock-in via software APIs are limited.
Windowsは早いPC時代の問題に対する素晴らしい解決であった。 それは、前に産業を苦しめたたくさんの問題を解決して、アプリケーションデベロッパーのために競技場を平らにした。 けれども一つの画一的なアプローチはもう、一人のベンダーによってコントロールされて、解決ではない、それは問題である。 コミュニケーション指向のシステムが、「プラットホームとしてのインターネット」が最も確かにそうであるように、互換性を必要とする。 ベンダー#ではないなら、ソフトウェアAPIによってのユーザーロックインの可能性は限定されている。 

 Any Web 2.0 vendor that seeks to lock in its application gains by controlling the platform will, by definition, no longer be playing to the strengths of the platform.
そのアプリケーションに持ち込もうと努める2.0のベンダーが、プラットホームをコントロールすることによって、得るWebが、定義上、もうプラットホームの強さにプレーしていないであろう。

This is not to say that there are not opportunities for lock-in and competitive advantage, but we believe they are not to be found via control over software APIs and protocols. There is a new game afoot. The companies that succeed in the Web 2.0 era will be those that understand the rules of that game, rather than trying to go back to the rules of the PC software era.
これはロックインと競合する利点の機会はないということではないが、しかし我々はそれらがソフトウェアAPIとプロトコルについてのコントロールによって見いだされることでないと信じる。 進行中の新しいゲームがある。 Web2.0時代に成功する企業はPCソフトウェア時代の規則に戻ろうとするよりむしろ、そのゲームの規則を理解するそれらであるであろう。

Not surprisingly, other web 2.0 success stories demonstratethis same behavior. eBay enables occasional transactions of only a few dollarsbetween single individuals, acting as an automated intermediary. Napster(though shut down for legal reasons) built its network not by building acentralized song database, but by architecting a system in such a way thatevery downloader also became a server, and thus grew the network.
驚くまでのこともなく、他のWeb2.0成功物語がこの同じ振る舞いを示している。 eBayは、自動化された仲裁人の役を務めて、一人の個人の間でほんの数ドルだけの時折の取引を可能にする。 Napster(法律上の理由で閉鎖させられたけれども)は、中央集権化された歌データベースを構築するのではなく、すべてのダウンロードする人がが同じくサーバーになって、それでネットワークを増やしたような方法でシステムを構築することによって、そのネットワークを構築した。 

 Akamai vs. BitTorrent
アカマイ対ビットトレント 

 Like DoubleClick, Akamai is optimized to do business withthe head, not the tail, with the center, not the edges. While it serves thebenefit of the individuals at the edge of the web by smoothing their access tothe high-demand sites at the center, it collects its revenue from those centralsites.
ダブルクリックのように、アカマイは、尾ではなく、頭で、端ではなく、真ん中でビジネスをするために最適化されている。中央で需要が大きいサイトへのそれらのアクセスを順調に進めることによって、それがWebの端において個人の利益をサポートする一方で、それらの中央サイトからその収入を集めるのである。BitTorrent, like other pioneers in the P2P movement, takesa radical approach to internet decentralization. Every client is also a server;files are broken up into fragments that can be served from multiple locations,transparently harnessing the network of downloaders to provide both bandwidthand data to other users. The more popular the file, in fact, the faster it canbe served, as there are more users providing bandwidth and fragments of thecomplete file.
ビットトレントは、他の開拓者のようにP2Pの運動で、インターネット分散への急進的なアプローチをとる。 すべてのクライアントが同じくサーバーである;ファイルは、多数の場所からサポートされることができる破片の中に壊される。バンド幅とデータ両方を提供するダウンロードする人たちのネットワークを透過的に他のユーザーに引き具でつないで、ファイルが、いっそう人気が高くなるにつれて、実際、より速くサービスができる。というのも、バンド幅と完全なファイルの破片を供給しているもっと多くのユーザーが増えるからだ。 

 BitTorrent thus demonstrates a key Web 2.0 principle: theservice automatically gets better the more people use it. While Akamaimust add servers to improve service, every BitTorrent consumer brings his ownresources to the party. There's an implicit "architecture ofparticipation", a built-in ethic of cooperation, in which the service actsprimarily as an intelligent broker, connecting the edges to each other andharnessing the power of the users themselves.
ビットトレントはそれで鍵となるWeb2.0の原則を実証する:いっそう多くの人々がそれを使うと、それだけサービスは自動的にもっと良くなる。アカマイがサービスを改善するためにサーバーを加えなくてはならない間に、すべてのビットトレント消費者が彼自身のリソースをパーティーに持って来る。 サービスが、末端同士をお互いと接続して、そしてユーザー自身の力を利用して、主に知的なブローカーの役を務める暗黙の「参加のアーキテクチャ」、協力の組み込み倫理がある。 

 2. Harnessing Collective Intelligence
2.集合の知性を利用すること 

 The central principle behind the success of the giants bornin the Web 1.0 era who have survived to lead the Web 2.0 era appears to bethis, that they have embraced the power of the web to harness collectiveintelligence:
彼らが集合の知性を利用するためにWebの力を受け入れたWeb2.0時代をリードするために生き残ったWeb1.0時代で生まれたジャイアントの成功の背後にある中心となる信条はこのように見える: 

 ・Hyperlinking is the foundation of the web. As users add new content, and new sites, it is bound in to the structure of the web by other users discovering the content and linking to it. Much as synapses form in the brain, with associations becoming stronger through repetition or intensity, the web of connections grows organically as an output of the collective activity of all web users.
ハイパーリンクはWebの基礎である。 ユーザーが新しいコンテンツと新しいサイト、を加えるにつれて、それはコンテンツを発見して、そしてそれにリンクして他のユーザーによってWebの構造にバインドされる。 シナプスが脳にできるけれども、連合が繰り返しあるいは強烈さを通してもっと強くなるという状態で、接続のWebはすべてのWebユーザーの集合の活動のアウトプットとして有機的に発達する。 

 ・Yahoo!, the first great internet success story, was born as a catalog, or directory of links, an aggregation of the best work of thousands, then millions of web users. While Yahoo! has since moved into the business of creating many types of content, its role as a portal to the collective work of the net's users remains the core of its value.
最初の素晴らしいインターネット成功物語であるYahoo!はカタログや、あるいは複数リンクのディレクトリ、何千もの最良の仕事の集合体、それから何百万というWebユーザーとして生まれた。 Yahoo!がそれ以来多くのタイプのコンテンツを作成するビジネスに引越しする一方で、ネットのユーザーの共同の仕事へのポータルとしてのその役割はその価値のコアのままでいる。 

 ・Google's breakthrough in search, which quickly made it the undisputed search market leader, was PageRank, a method of using the link structure of the web rather than just the characteristics of documents to provide better search results.
検索でのGoogleのブレークスルーはす速くそれを争う者がない検索マーケットのリーダーにしたが、それはもっと良い検索結果を提供するための単なるドキュメントの機能よりむしろPageRankという、Webのリンク構造を使う方法であった。 

・ eBay's product is the collective activity of all its users; like the web itself, eBay grows organically in response to user activity, and the company's role is as an enabler of a context in which that user activity can happen. What's more, eBay's competitive advantage comes almost entirely from the critical mass of buyers and sellers, which makes any new entrant offering similar services significantly less attractive.
eBayの製品はそのすべてのユーザーの集合活動である;Web自身のように、eBayはユーザー活動に応えて有機的に成長する。そして企業の役割はそのユーザー活動が起こりうる文脈のイネーブラーのようなものである。 その上、eBayの競合する利点はほとんどまったく、買い手と売り手の重大な臨界から来る。それはどんな新しい参加者が提供している類似のサービスよりも著しく、魅力をそぐものとなっている。 

・ Amazon sells the same products as competitors such as Barnesandnoble.com, and they receive the same product descriptions, cover images, and editorial content from their vendors. But Amazon has made a science of user engagement. They have an order of magnitude more user reviews, invitations to participate in varied ways on virtually every page--and even more importantly, they use user activity to produce better search results. While a Barnesandnoble.com search is likely to lead with the company's own products, or sponsored results, Amazon always leads with "most popular", a real-time computation based not only on sales but other factors that Amazon insiders call the "flow" around products. With an order of magnitude more user participation, it's no surprise that Amazon's sales also outpace competitors.
アマゾンはBarnesandnoble.comのような競合と同じ商品を売る。そして彼らは彼らのベンダーから同じ商品記述、表紙イメージと編集のコンテンツを受け取る。 けれどもアマゾンはユーザー交渉の科学をしている。 彼らはもっと多くのユーザーの大規模な再検討をしており、実際、ほとんどあらゆるページでさまざまな方法で参加する招待をしている- そしてさらにいっそう重要なことに、彼らはユーザー活動をもっと良い検索結果を産み出すために使う。 Barnesandnoble.com検索が企業の自身の商品で始める可能性が高いか、あるいは結果を後援している一方で、アマゾンは常に「最も人気が高い」、販売だけではなくアマゾン内部者が商品の周りに「流れ」と呼ぶ他の要因にも基づいたリアルタイムコンピュータ処理でリードする。 一桁違いのユーザー参加があるので、そのアマゾンの売上高が同じく、競合より勝ることは驚きではない。

 
Now, innovative companies that pick up on this insight andperhaps extend it even further, are making their mark on the web:
今、この洞察力を理解して、そしてさらにさえ多分それを拡張する革新的な企業は、web で下記をマークしている: 

・ Wikipedia, an online encyclopedia based on the unlikely notion that an entry can be added by any web user, and edited by any other, is a radical experiment in trust, applying Eric Raymond's dictum (originally coined in the context of open source software) that "with enough eyeballs, all bugs are shallow," to content creation. Wikipedia is already in the top 100 websites, and many think it will be in the top ten before long. This is a profound change in the dynamics of content creation!
項目がどんなWebユーザーによってでも加えられて、そして他の誰によってでも編集することができるというありそうもない概念に基づいたオンラインの百科事典、Wikipediaは、コンテンツ作成に、「十分な眼識でみると、すべてのバグが浅はかである」という(元来オープンソースソフトウエアという環境で造り出された)エリック・レイモンドの見解を応用して、委託されている急進的な実験である。 Wikipediaはすでにウェブサイトのトップ100であり、そして多くの人がそれがまもなくトップ10になるであろうと思う。 これはコンテンツ作成の動的関係の深遠な変化である! 

 ・Sites like del.icio.us and Flickr, two companies that have received a great deal of attention of late, have pioneered a concept that some people call "folksonomy" (in contrast to taxonomy), a style of collaborative categorization of sites using freely chosen keywords, often referred to as tags. Tagging allows for the kind of multiple, overlapping associations that the brain itself uses, rather than rigid categories. In the canonical example, a Flickr photo of a puppy might be tagged both "puppy" and "cute"--allowing for retrieval along natural axes generated user activity.
del.icio.usやFlickerのようなサイトは、最近非常に多くの注目を受けた2つの企業であるが、(タクソノミーと対照して)「フォークソノミー」と呼ぶコンセプトを開拓した。それは、しばしばタグとして参照される自由に選ばれたキーワードを使っているサイトの共同の分類のスタイルである。タグを付けることは脳自身が、厳格なカテゴリーよりむしろ、使う多数の、重なり合っている連合の種類を可能にする。 規準的な例で、子犬のFlickr写真が「子犬」と「キュートである」両方とレッテルを付けられるかもしれない -ユーザー活動が生成した自然の軸に沿って検索を可能にする。 

 ・Collaborative spam filtering products like Cloudmark aggregate the individual decisions of email users about what is and is not spam, outperforming systems that rely on analysis of the messages themselves.
Cloudmarkのような共同のスパムフィルタリング商品はどれがスパムであって、そしてどれがそうでないかについての電子メールユーザーの個々の決定を集める。それは、メッセージ自身の解析に頼るシステムを凌いでいる。 

 ・It is a truism that the greatest internet success stories don't advertise their products. Their adoption is driven by "viral marketing"--that is, recommendations propagating directly from one user to another. You can almost make the case that if a site or product relies on advertising to get the word out, it isn't Web 2.0.
最も素晴らしいインターネット成功物語が彼らの商品を宣伝しないことは自明の理である。 彼らの採用は1つのユーザーからもう1人まで直接繁殖して「ウィルスのマーケティング」 - すなわち、推薦 - によって駆動される。もしサイトあるいは商品が言葉を努力してだすために宣伝に頼るなら、それはWeb2.0ではないという正当化をほとんどあなたは行なうことができる。 

・ Even much of the infrastructure of the web--including the Linux, Apache, MySQL, and Perl, PHP, or Python code involved in most web servers--relies on the peer-production methods of open source, in themselves an instance of collective, net-enabled intelligence. There are more than 100,000 open source software projects listed on SourceForge.net. Anyone can add a project, anyone can download and use the code, and new projects migrate from the edges to the center as a result of users putting them to work, an organic software adoption process relying almost entirely on viral marketing.
Webの基礎構造の多くさえ- Linux、アパッチ、MySQLとperl、PHP、あるいはたいていのWeb サーバに関与するPythonコードを含めての -オープンソースのピアープロダクション方法や、彼ら自身で共同の、ネット使用可能な知性のインスタンスに頼る。SourceForge.netに上場された100,000以上のオープンソース・ソフトウェアプロジェクトがある。 誰でもプロジェクトを加えることができる、誰でもコードをダウンロードして、そして使うことができる。そしてユーザーの結果がうまく作用するように、ほとんど完全にウィルスのマーケティングに頼っている有機的ソフトウェア採用プロセスを新しいプロジェクトが端から中央まで移行する。 

The lesson: Network effects from user contributions arethe key to market dominance in the Web 2.0 era.
教訓:ユーザー貢献からのネットワーク効果はWeb2.0時代で市場独占へのカギである。 

 Blogging and the Wisdom of Crowds
ブログと大衆の知恵

 One of the most highly touted features of the Web 2.0 erais the rise of blogging. Personal home pages have been around since the earlydays of the web, and the personal diary and daily opinion column around muchlonger than that, so just what is the fuss all about?
Web2.0時代の最も大いに売り込まれた機能の1つがブログの興隆である。Web の初期から個人のホームページは存在していたし、それよりずっと長い周りの個人の日記や毎日の意見コラムもあったが、あの大騒ぎはすべていったい何なんだろうか? 

 At its most basic, a blog is just a personal home page indiary format. But as Rich Skrenta notes, the chronologicalorganization of a blog "seems like a trivial difference, but it drives anentirely different delivery, advertising and value chain."
その最も基本的なものにおいて、ブログは日記フォーマットでただ個人のホームページである。けれどもリッチ・スクレンタが注目するように、ブログの時系列的有機体は「些細な相違のように思われるが、それは完全に異なった配信、広告と価値連鎖を駆動する。」 

 One of the things that has made a difference is atechnology called RSS. RSS isthe most significant advance in the fundamental architecture of the web sinceearly hackers realized that CGI could be used to create database-backedwebsites. RSS allows someone to link not just to a page, but to subscribe toit, with notification every time that page changes. Skrenta calls this"the incremental web." Others call it the "live web".
相違を生じたものの1つがRSSと呼ばれる技術である。初め、ハッカーがCGIがデータベースによって支持されたウェブサイトを作成するために使えることができることを悟って以来、RSSはWebの基本的なアーキテクチャで最も重要な進歩である。 RSSは誰かにページにだけではなくリンクすること、しかし、そのページが変化する時いつも、通知され、それを定期受信することを可能にする。スクレンタはこれを「増分Web」と呼ぶ。 他の人たちはそれを「ライブWeb」と呼ぶ。 

 Now, of course, "dynamic websites" (i.e.,database-backed sites with dynamically generated content) replaced static webpages well over ten years ago. What's dynamic about the live web are not justthe pages, but the links. A link to a weblog is expected to point to a perenniallychanging page, with "permalinks" for any individual entry, andnotification for each change. An RSS feed is thus a much stronger link than,say a bookmark or a link to a single page.
今、もちろん、「ダイナミックなウェブサイト」(すなわち、動的に生成されたコンテンツを持つデータベースによって支持されたサイト)が10年以上前に静的なWeb ページに取って代わった。 ライブWebについてダイナミックなことはページだけではなくリンクでもある。 web ログへのリンクがそれぞれの変更のためにどんな個別の項目と通知のためにでも、「永久リンク」で、絶えず変化しているページを指し示すことを期待される。 RSS送信がそれで、例えばブックマークあるいは一つのページへのリンクよりずっと強いリンクである。 

 The Architecture of Participation
参加のアーキテクチャ 

 Some systems are designed to encourage participation. In his paper, The Cornucopia of the Commons, Dan Bricklin noted that there are three ways to build a large database. The first, demonstrated by Yahoo!, is to pay people to do it. The second, inspired by lessons from the open source community, is to get volunteers to perform the same task. The Open Directory Project, an open source Yahoo competitor, is the result. But Napster demonstrated a third way. Because Napster set its defaults to automatically serve any music that was downloaded, every user automatically helped to build the value of the shared database. This same approach has been followed by all other P2P file sharing services.
若干のシステムが参加を奨励するよう設計される。 彼のペーパー、#で、ダンBricklinは大きいデータベースを構築する3つの方法があることを指摘した。 Yahoo!によって証明される最初が人々にそれをするよう金を払うはずである。 第2は、オープンソース共同体からのレッスンによって鼓舞されて、ボランティアに同じタスクを行なうようにさせるはずである。 #、オープンソースYahoo競争相手、は結果である。 けれども#が3番目の方法を証明した。 Napsterがそのデフォルトを自動的にダウンロードされたどんな音楽でもサポートするように設定したから、すべてのユーザーが自動的に共有されたデータベースの値を構築するのを手伝った。 この同じアプローチはすべての他のP2Pファイル共有サービスによって従われた。

 One of the key lessons of the Web 2.0 era is this: Users add value. But only a small percentage of users will go to the trouble of adding value to your application via explicit means. Therefore, Web 2.0 companies set inclusive defaults for aggregating user data and building value as a side-effect of ordinary use of the application. As noted above, they build systems that get better the more people use them.

Web2.0時代がこれであるというのキーレッスンの1つ:ユーザーが値を加える。 けれどもただユーザーの少しのパーセンテージだけが明示的な手段によってあなたのアプリケーションに価値を加えることについての問題に行くであろう。  Web2.0の企業は、プリケーションの普通の使用の副作用としてユーザーデータを集めて、そしてア価値を構築することに対してすべてを含んでいるようにしたデフォルします。 上記のとおり、いっそう多くの人々がそれらを使うと、それだけそれらはもっと良くなるシステムを構築する。 

 Mitch Kapor once noted that "architecture is politics." Participation is intrinsic to Napster, part of its fundamental architecture.
ミッチKaporはかつて「アーキテクチャが政治である」ことを指摘した。 参加はNapster、その基本的なアーキテクチャの一部に本質的である。 

This architectural insight may also be more central to the success of open source software than the more frequently cited appeal to volunteerism. The architecture of the internet, and the World Wide Web, as well as of open source software projects like Linux, Apache, and Perl, is such that users pursuing their own "selfish" interests build collective value as an automatic byproduct. Each of these projects has a small core, well-defined extension mechanisms, and an approach that lets any well-behaved component be added by anyone, growing the outer layers of what Larry Wall, the creator of Perl, refers to as "the onion." In other words, these technologies demonstrate network effects, simply through the way that they have been designed.
この建築の洞察は同じくボランティア活動へのいっそうしばしば引用された控訴よりオープンソース・ソフトウェアの成功にいっそう重要であるかもしれない。 インターネットと、Linux、アパッチ語とperlのようなオープンソース・ソフトウェアプロジェクトのと同様、World Wide Webのアーキテクチャは(彼・それ)ら自身の「利己的な」利害関係を追い求めているユーザーが自動的な副産物として共同の価値を構築するようにである。 これらのプロジェクトのそれぞれが小さいコア、明瞭な拡張メカニズムと、ラリー・ウォール、perlの創造者、が「玉ねぎ」として参照するものの外層を増やして、どんな行儀が良いコンポーネントでも誰によってでも加えられさせるアプローチを持っている。 換言すれば、これらの技術は、ただ、それらが設計された道を通って、ネットワーク影響を実証する。

These projects can be seen to have a natural architecture of participation. But as Amazon demonstrates, by consistent effort (as well as economic incentives such as the Associates program), it is possible to overlay such an architecture on a system that would not normally seem to possess it.
これらのプロジェクトは参加の自然なアーキテクチャを持つのを見られることができる。 けれどもアマゾンがデモをするように、一貫した努力によって(Associatesプログラムのような経済の誘因と同じぐらいよく)、通常それを所有するように思われないであろうシステムでこのような建築様式を上塗りすることは可能である。

RSS also means that the web browser is not the only meansof viewing a web page. While some RSS aggregators, such as Bloglines, areweb-based, others are desktop clients, and still others allow users of portabledevices to subscribe to constantly updated content.
RSSは同じくWeb ブラウザがWeb ページを見る唯一の手段ではないことを意味する。 Bloglinesのような、若干のRSS アグリゲータがWebベースである一方で、他のものはデスクトップのクライアントである、そしてまた別のアグリゲータは携帯ユーザーがいつも更新されたコンテンツを定期受信することを可能にする。 

 RSS is now being used to push not just notices of new blogentries, but also all kinds of data updates, including stock quotes, weatherdata, and photo availability. This use is actually a return to one of itsroots: RSS was born in 1997 out of the confluence of Dave Winer's"Really Simple Syndication" technology, used to push out blog updates,and Netscape's "Rich Site Summary", which allowed users to createcustom Netscape home pages with regularly updated data flows. Netscape lostinterest, and the technology was carried forward by blogging pioneer Userland,Winer's company. In the current crop of applications, we see, though, theheritage of both parents.
RSSは今や株価、気象データと写真利用可能性を含めて新しいブログ項目の掲示だけではなくあらゆる種類のデータ更新も後押しするために使われている。この利用は実際にそのルートの1つへの回帰である:RSSがデイブ・ワイナーの「本当に単純なシンジケート」技術の合流から1997年に生まれ、ユーザーが規則的にデータの流れを更新するもので注文製のネットスケープホームページを作成することを可能にしたブログ更新とネットスケープの「豊かなサイトサマリー」を作成したものであった。ネットスケープは興味を失ったが、その技術はワイナーの企業のブログ作成開拓者Userlandによって進められた。けれども、アプリケーションの現在の収穫で、両方の親の遺産を我々は見る。 

 But RSS is only part of what makes a weblog different froman ordinary web page. Tom Coates remarks on thesignificance of the permalink:
けれどもRSSはweb ログを普通のWeb ページと異ならせるものの単なる一部に過ぎない。トム・コーツはパーマリンクの意義について意見を述べる: 

( It may seem like a trivial piece offunctionality now, but it was effectively the device that turned weblogs froman ease-of-publishing phenomenon into a conversational mess of overlappingcommunities. For the first time it became relatively easy to gesture directlyat a highly specific post on someone else's site and talk about it. Discussionemerged. Chat emerged. And - as a result - friendships emerged or became moreentrenched. The permalink was the first - and most successful - attempt tobuild bridges between weblogs.
(それは、今は些細な一片の機能性のように思われるかもしれないが、しかしそれはブログを「出版の容易さ」現象から重なり合っている共同体の食事中の会話のように変えた効果的な仕掛けであった。初めてほかの誰かのサイトで大いに特定の投稿をして、直接ジェスチャーで表現して、それについて話をすることは比較的容易になった。 ディスカッションが出現した。 チャットが出現した。そして - 結果として - 友情が出現したり、あるいはいっそう強固になった。 パーマリンクは最初で - そして最も成功した - ブログ間にブリッジを構築しようとした試みであった。) 

 In many ways, the combination of RSS and permalinks addsmany of the features of NNTP, the Network News Protocol of the Usenet, ontoHTTP, the web protocol. The "blogosphere" can be thought of as a new,peer-to-peer equivalent to Usenet and bulletin-boards, the conversationalwatering holes of the early internet. Not only can people subscribe to eachothers' sites, and easily link to individual comments on a page, but also, viaa mechanism known as trackbacks, they can see when anyone else links to theirpages, and can respond, either with reciprocal links, or by adding comments.
いろいろな意味で、RSSとパーマリンクの組み合わせはHTTP、WebプロトコルにNNTP、Usenetのネットワーク・ニュースプロトコル、の機能の多くを加える。 新しくて、Usenetや掲示板にピアツーピア同等のものとして、「blogosphere」は考えられる。インターネット初期の話し好きな社交場である。 単に人々がお互いのサイトを定期受信して、そして容易にページに関する個別のコメントにリンクすることができるだけではなく、同じく、trackbacksとして知られているメカニズムを経由して、他の誰もが彼らのページにリンクするとき、彼らは見ることができて、そして、相互のリンクで、あるいは、コメントを付け加えることによって、返答することができる。 

 Interestingly, two-way links were the goal of earlyhypertext systems like Xanadu. Hypertext purists have celebrated trackbacks asa step towards two way links. But note that trackbacks are not properlytwo-way--rather, they are really (potentially) symmetrical one-way links thatcreate the effect of two way links. The difference may seem subtle, but inpractice it is enormous. Social networking systems like Friendster, Orkut, andLinkedIn, which require acknowledgment by the recipient in order to establish aconnection, lack the same scalability as the web. As noted by Caterina Fake,co-founder of the Flickr photo sharing service, attention is onlycoincidentally reciprocal. (Flickr thus allows users to set watch lists--anyuser can subscribe to any other user's photostream via RSS. The object ofattention is notified, but does not have to approve the connection.)
興味深いことに、両方向のリンクはザナドゥのような初期のハイパーテキストシステムのゴールであった。ハイパーテキスト純正主義者が両方向のリンクに向かってのステップとしてtrackbacksを祝った。 けれどもtrackbacksが適切に両方向ではないことに注意を払いなさい - どちらかと言えば、それらは本当に(潜在的に)両方向のリンクの効果を引き起こす対称の一方向のリンクである。相違は微妙に思われるかもしれない、しかし実際には、それは大きな相違である。 Friendster、接点を確立するために受取人によって承認を必要とするOrkutとLinkedInのような社会のネットワーキングシステムがWebと同じ拡大縮小可能性に欠ける。 Flickr写真共有サービスの共同創設者カテリーナFakeによって気付くように、その注目ははただ偶然一致したのか、相互である。 (Flickrはそれでユーザーが閲覧リストを設定することを可能にする- どんなユーザーでもRSSによって他のいかなるユーザーのphotostreamでも定期受信することができる。注目の対象は通知されるが、しかし接続を承認しなくてもよい。) 

 If an essential part of Web 2.0 is harnessing collectiveintelligence, turning the web into a kind of global brain, the blogosphere isthe equivalent of constant mental chatter in the forebrain, the voice we hearin all of our heads. It may not reflect the deep structure of the brain, whichis often unconscious, but is instead the equivalent of conscious thought. Andas a reflection of conscious thought and attention, the blogosphere has begunto have a powerful effect.
もしWeb2.0の本質的な部分が集合的知性を利用することなら、その知性はWebを一種の世界的な脳に変えるが、blogosphereは前脳部、我々が我々のすべての頭に聞く声で絶え間がない精神のおしゃベりの同等物である。 それはしばしば無意識の脳の深い構造を反映しないかもしれないが、その代わりに意識的な考えの同等物である。そして意識的な考えと注目の反映として、blogosphereは強力な効果を持ち始めている。 

 First, because search engines use link structure to helppredict useful pages, bloggers, as the most prolific and timely linkers, have adisproportionate role in shaping search engine results. Second, because theblogging community is so highly self-referential, bloggers paying attention toother bloggers magnifies their visibility and power. The "echochamber" that critics decry is also an amplifier.
最初に、サーチ・エンジンがリンク構造を有用なページを予測するのに役立つために使うから、ブログ作成者が、最も多産な、そしてタイムリーな仲立ちとして、サーチ・エンジン結果を具体化することにおける不釣り合いな役割を持っている。第二に、ブログ作成共同体がそれほど大いに自己-参照的なので、他のブログ作成者に対する注意を払っているブログ作成者は、彼らの可視化と力を増大する。批評家が非難する「エコー会議室」は同じく増幅器である。 

 If it were merely an amplifier, blogging would beuninteresting. But like Wikipedia, blogging harnesses collective intelligenceas a kind of filter. What James Suriowecki calls "the wisdom of crowds"comes into play, and much as PageRank produces better results than analysis ofany individual document, the collective attention of the blogosphere selectsfor value.
もしそれがただ増幅器であったなら、ブログを作成することは面白くないであろう。けれどもWikipediaのように、ブログ作成が一種のフィルターとして共同の知性を利用する。 ジェームズSurioweckiが「群集の知恵」と呼ぶものは活動し始める、そしてPageRankがどんな個別のドキュメントの分析よりも良い結果を産み出すけれども、blogosphereの集合注目は価値で選択するからである。 

 While mainstream media may see individual blogs as competitors,what is really unnerving is that the competition is with the blogosphere as awhole. This is not just a competition between sites, but a competition betweenbusiness models. The world of Web 2.0 is also the world of what Dan Gillmorcalls "we, the media," aworld in which "the former audience", not a few people in a backroom, decides what's important.
主流のメディアが個別のブログを競争相手として見るかもしれない一方で、本当にひどいものは競合が全体としてblogosphereを持っているということである。 これはサイト間の競合だけではなくビジネスモデル間の競合でもある。 Web2.0の世界は同じくダンGillmorが「我々、メデイア」と呼ぶものの世界、奥の部屋の少数の人々ではなく、「前にいる聴衆」が、何が重要であるか決める世界である。 

 3. Data is the Next Intel Inside
3.データは次のインテルインサイドである 

 Every significant internet application to date has beenbacked by a specialized database: Google's web crawl, Yahoo!'s directory (andweb crawl), Amazon's database of products, eBay's database of products andsellers, MapQuest's map databases, Napster's distributed song database. As HalVarian remarked in a personal conversation last year, "SQL is the newHTML." Database management is a core competency of Web 2.0 companies, somuch so that we have sometimes referred to these applications as "infoware"rather than merely software.
今日までのすべての重要なインターネットアプリケーションは専門的なデータベースによって支持されてきた。:GoogleのWeb巡回、Yahoo!のディレクトリ(そしてWeb 巡回)、アマゾン商品のデータベース、eBayの商品と売り手のデータベース、MapQuestのマップデータベース、Napsterの分散歌データベースなどが支えてきたのである。ハル・バリアンが去年個人的な会話で気付いたように、「SQLは新しいHTMLである」。我々が単なるソフトウェアよりむしろ時々「インフォウエア」のようなこれらのアプリケーションを参照してきたのだが、データベース管理がWeb2.0の企業のコア能力で、本当にそうなのである。 

 This fact leads to akey question: Who owns the data?
この事実は鍵となる問題に導く:誰がデータを所有するか?
 

 In the internet era, one can already see a number of caseswhere control over the database has led to market control and outsizedfinancial returns. The monopoly on domain name registry initially granted bygovernment fiat to Network Solutions (later purchased by Verisign) was one ofthe first great moneymakers of the internet. While we've argued that businessadvantage via controlling software APIs is much more difficult in the age ofthe internet, control of key data sources is not, especially if those datasources are expensive to create or amenable to increasing returns via networkeffects.
インターネット時代に、人はすでに多くのデータベースについてのコントロールがマーケットコントロールに導いたケースと特大の財務的見返りを見ることができる。(後にVerisignによって購入された)NetworkSolutionsに初めに政府専断的命令によって与えられたドメイン名レジストリの独占権はインターネットの最初の大きいもうけ仕事の1つであった。我々が支配的なソフトウェアAPIのコントロールを介したビジネスアドバンテージがインターネットの時代にずっと難しいと論じて来た一方で、主要データソースのコントロールはそうではない、特にもしそれらのデータソースが作成するのに費用がかかるか、あるいはネットワーク効果によって増加するリターンを律することが出来るなら、なおさらそうである。 

 Look at the copyright notices at the base of every mapserved by MapQuest, maps.yahoo.com, maps.msn.com, or maps.google.com, andyou'll see the line "Maps copyright NavTeq, TeleAtlas," or with thenew satellite imagery services, "Images copyright Digital Globe."These companies made substantial investments in their databases (NavTeq alonereportedly invested $750 million to build their database of street addressesand directions. Digital Globe spent $500 million to launch their own satelliteto improve on government-supplied imagery.) NavTeq has gone so far as toimitate Intel's familiar Intel Inside logo: Cars with navigation systems bearthe imprint, "NavTeq Onboard." Data is indeed the Intel Inside ofthese applications, a sole source component in systems whose softwareinfrastructure is largely open source or otherwise commodified.
MapQuestによってサービスされるすべてのマップの基地、maps.yahoo.com、maps.msn.com、あるいはmaps.google.comで著作権掲示を見なさい。そうすればあなたは「NavTeq、TeleAtlasの地図著作権」か、あるいは新しい衛星画像サービスで、「イメージ著作権デジタルグローブ」などの行を見るであろう。これらの企業は彼らのデータベースに対しての相当な投資をした(NavTeqだけで番地と方向の彼らのデータベースを構築するために伝えられるところによれば7億5000万ドルを投資した。デジタルグローブは政府によって供給されたイメージを改善するために彼ら自身の人工衛星を発射するために5億ドルを使った。)NavTeqがインテルのよく知られたインテルインサイドのロゴの模倣さえする:ナビゲーションシステムを持っている自動車が銘板をつけるが、それが「NavTeq Onboard」である。 データは本当にこれらのアプリケーションのインテルインサイド、そのソフトウェア基礎構造が主として公開されているソース、あるいはさもなければ一般商品化されたシステムの唯一のソースコンポーネントである。 

 The now hotly contested web mapping arena demonstrates howa failure to understand the importance of owning an application's core datawill eventually undercut its competitive position. MapQuest pioneered the webmapping category in 1995, yet when Yahoo!, and then Microsoft, and most recentlyGoogle, decided to enter the market, they were easily able to offer a competingapplication simply by licensing the same data.
今激しく争われたWebのマッピングアリーナはアプリケーションのコアデータを所有することについての重要性を理解するのに失敗すると、結局はどのようにその競争状態を妨害するであろうか説明する。 MapQuestは1995年にWebのマッピングカテゴリーを創始した、それでもなおYahoo!、そして次にマイクロソフトと最も最近Googleがマーケットに入ることを決定したとき、単に同じデータを認可することによって、彼らは容易に競合アプリケーションを提供することが可能であった。 

 Contrast, however, the position of Amazon.com. Likecompetitors such as Barnesandnoble.com, its original database came from ISBNregistry provider R.R. Bowker.But unlike MapQuest, Amazon relentlessly enhanced the data, addingpublisher-supplied data such as cover images, table of contents, index, andsample material. Even more importantly, they harnessed their users to annotatethe data, such that after ten years, Amazon, not Bowker, is the primary sourcefor bibliographic data on books, a reference source for scholars and librariansas well as consumers. Amazon also introduced their own proprietary identifier,the ASIN,which corresponds to the ISBN where one is present, and creates an equivalentnamespace for products without one. Effectively, Amazon "embraced andextended" their data suppliers.
しかしながら、アマゾン・ドット・コムのポジションを対比してみよう。 Barnesandnoble.comのような競争相手のように、そのオリジナルのデータベースはISBNレジストリプロバイダR.R.ボーカーから来た。 けれどもMapQuestと異なり、アマゾンは容赦なく、表紙イメージ、目次、インデックスとサンプル資料のような発行人によって供給されたデータを加えて、データを強化した。さらにいっそう重要なことに、彼らはデータに注釈を付けるために彼らのユーザーを利用した。こうして、10年後に、ボーカーではなく、アマゾンが本に関する、書誌的なデータのための一次資料となり、すなわち消費者と同様、学者や、図書館員のための参照情報源となっている。アマゾンは同じく彼ら自身の専有識別子ASINも導入し、それはISBNに対応するものだが、ISBNがなくとも商品のために同等のネームスペースを作るものである。 効果的に、アマゾンは彼らのデータ供給元を「受け入れて、そして拡張した」。 

 Imagine if MapQuest had done the same thing, harnessingtheir users to annotate maps and directions, adding layers of value. It wouldhave been much more difficult for competitors to enter the market just bylicensing the base data.
値のレイヤを加えて、マップと方向に注釈を付けるために彼らのユーザーを利用して、MapQuestが(すでに)同じことをしていたらどうか想像してみよう。 ベースデータを認可するだけでは、競争相手がマーケットに入ることはずっと難しかったであろう。 

 The recent introduction of Google Maps provides a livinglaboratory for the competition between application vendors and their datasuppliers. Google's lightweight programming model has led to the creation ofnumerous value-added services in the form of mashups that link Google Maps withother internet-accessible data sources. Paul Rademacher'shousingmaps.com, which combines GoogleMaps with Craigslist apartment rentaland home purchase data to create an interactive housing search tool, is thepre-eminent example of such a mashup.
Google地図の最近の導入はアプリケーションベンダーと彼らのデータ供給元の間の競争のための生きた研究所を提供する。 Googleの軽量のプログラミングモデルはGoogleマップを他のインターネット-アクセス可能なデータソースとリンクするmashupsのかたちで大きな付加価値サービスの作成に導いた。対話型の住宅検索ツールを作るためにGoogleマップをCraigslistアパートレンタルとホーム購入データと組み合わせるポール・ラーデマッヘルのhousingmaps.comはこのようなmashupの抜群の例である。 

 At present, these mashups are mostly innovativeexperiments, done by hackers. But entrepreneurial activity follows closebehind. And already, one can see that for at least one class of developer,Google has taken the role of data source away from Navteq and insertedthemselves as a favored intermediary. We expect to see battles between datasuppliers and application vendors in the next few years, as both realize justhow important certain classes of data will become as building blocks for Web2.0 applications.
現在のところ、これらのmashupsは、ハッカーによって行われ、大方、革新的な実験である。けれどもそのすぐ後ろには企業家の活動が続く。 そしてすでに、ある種のデベロッパーは、少なくとも、GoogleがNavteqからデータソースの役割を取り去って、そして彼ら自身を人気がある仲介者として挿入したのを見ることができるという人もいる。両方ともがある特定のクラスのデータがWeb2.0のアプリケーショのためにビルデイングブロックとして、正確にどれほど重要になるであるか悟るであろうから、我々はデータ供給元とアプリケーションベンダーの間の戦いを次の数年で見ることを予期する。The race is on to own certain classes of core data: location, identity, calendaring of public events, productidentifiers and namespaces. In many cases, where there is significant cost tocreate the data, there may be an opportunity for an Intel Inside style play,with a single source for the data. In others, the winner will be the companythat first reaches critical mass via user aggregation, and turns thataggregated data into a system service.
品種はコアデータのある特定のクラスを所有するためにある:それは、場所、身元、公共のイベントのカレンダー表示、商品識別子とネームスペースである。多くの場合、データを作成するために相当のコストがあるところだが、データのための単一情報源で、インテルインサイドスタイル演劇の機会があるかもしれない。 他のもので、勝利者は最初にユーザー集合体によって臨界量に届いて、そしてシステムサービスに集合データを変える企業であるであろう。

 For example, in the area of identity, PayPal, Amazon's1-click, and the millions of users of communications systems, may all belegitimate contenders to build a network-wide identity database. (In thisregard, Google's recent attempt to use cell phone numbers as an identifier forGmail accounts may be a step towards embracing and extending the phone system.)Meanwhile, startups like Sxip are exploringthe potential of federated identity, in quest of a kind of "distributed1-click" that will provide a seamless Web 2.0 identity subsystem. In the areaof calendaring, EVDB is an attempt to buildthe world's largest shared calendar via a wiki-style architecture ofparticipation. While the jury's still out on the success of any particularstartup or approach, it's clear that standards and solutions in these areas,effectively turning certain classes of data into reliable subsystems of the"internet operating system", will enable the next generation ofapplications.
例えば、身元の分野で、PayPal、アマゾンの1-クリックと何百万という通信システムのユーザーはネットワーク規模の身元データベースを構築するためにすべて合法的な競技者であるかもしれない。(この点に関して、Gmailアカウントのためにセル電話番号を識別子として使用するGoogleの最近の試みは電話システムを受け入れて、そして拡張することへのステップであるかもしれない。) 一方、Sxipのような新興企業はスムーズなWeb2.0身元サブシステムを提供するであろう、一種の「分散1-クリック」の探求で、連合された身元の可能性を探究している。カレンダー表示の分野で、EVDBはwiki式の参加のアーキテクチャによって世界最大の共有されたカレンダーを構築する試みである。陪審がまだどんな特定の新企業あるいはアプローチの成功でも場外にいる間に、効果的にデータのある特定のクラスを「インターネットオペレーティング・システム」の信頼性が高いサブシステムに変えているこれらの分野の標準と解決がアプリケーションの次の世代を可能にするであろうことは明確である。

 A further point must be noted with regard to data, and thatis user concerns about privacy and their rights to their own data. In many ofthe early web applications, copyright is only loosely enforced. For example,Amazon lays claim to any reviews submitted to the site, but in the absence ofenforcement, people may repost the same review elsewhere. However, as companiesbegin to realize that control over data may be their chief source ofcompetitive advantage, we may see heightened attempts at control.
さらなるポイントはデータに関して注意しなくてはならない。そしてそれはプライバシーについてのユーザーの心配と自分自身のデータの権利である。初期のWebアプリケーションの多くは、コピーライトがただ大ざっぱに実施されるだけである。 例えば、アマゾンはサイトに提出されたどんなレビューに対しても権利を主張するが、しかし施行しないので、人々はほかのどこでも同じレビューを再投稿しても良い。しかしながら、さまざまな企業がデータについてのコントロールが彼らの競争優位性の主要情報源となるかもしれないことを悟り始めるにつれて、我々はコントロールの高められた試みを見るかもしれない。 

 Much as the rise of proprietary software led to the FreeSoftware movement, we expect the rise of proprietary databases to result ina Free Data movement within the next decade. One can see early signs of thiscountervailing trend in open data projects such as Wikipedia, the CreativeCommons, and in software projects like Greasemonkey,which allow users to take control of how data is displayed on their computer.
専有ソフトウェアの興隆がFreeSoftwareの動きに導いたけれども、我々は専有データベースの興隆が次の10年以内にフリーのデータの動きをもたらすことを予想する。創造的な共有地であるWikipedia、のような公開されているデータプロジェクトとGreasemonkeyのようなソフトウェアプロジェクトでこの相殺する傾向の初期の兆候を見ることができるという人もいる。そしてそれはユーザーがデータがどのように彼らのコンピュータ上に表示されるかについてコントロールすることを可能にする。 

 4. End of the Software Release Cycle
4.ソフトウェアリリースサイクルの終わり 

 As noted above in the discussion of Google vs. Netscape,one of the defining characteristics of internet era software is that it isdelivered as a service, not as a product. This fact leads to a number offundamental changes in the business model of such a company:
上記のとおりGoogle対ネットスケープの論議で、インターネット時代のソフトウェアの決定的な機能の1つが、商品としてではなく、サービスとしてそれが送り届けられるということである。この事実はこのような企業のビジネスモデルでの多くの基本的な変更に導く: 

 1.Operations must become a core competency. Google's or Yahoo!'s expertise in product development must be matched by an expertise in daily operations. So fundamental is the shift from software as artifact to software as service that the software will cease to perform unless it is maintained on a daily basis. Google must continuously crawl the web and update its indices, continuously filter out link spam and other attempts to influence its results, continuously and dynamically respond to hundreds of millions of asynchronous user queries, simultaneously matching them with context-appropriate advertisements.
オペレーションがコア能力にならなくてはならない。 製品開発におけるGoogleの、あるいはYahoo!の専門的知識は毎日のオペレーションにおける専門的知識によってマッチされなくてはならない。 人工物としてのソフトウェアからソフトウェアまでサービスとしてシフトがそれほど基本的であるので、それが日単位で維持されないなら、ソフトウェアが能力を発揮することを終えるであろう。 Googleが連続的にWebを探し回って、そしてそのインデックスを更新して、連続的に、その結果に影響を与えるために連続的にリンクスパムと他の試みを除外して、そして動的に、同時にそれらを文脈に適切な広告と合わせて、何億という非同期のユーザーの問合せに応答しなくてはならない。

It's no accident that Google'ssystem administration, networking, and load balancing techniques are perhapseven more closely guarded secrets than their search algorithms. Google'ssuccess at automating these processes is a key part of their cost advantageover competitors.
Googleのシステムアドミニストレーション、ネットワーキングと負荷バランステクニックが多分、彼らの検索アルゴリズムよりさらにもっと密接に守られる機密でさえあることは偶然ではない。これらのプロセスを自動化することにおいてのGoogleの成功が競争相手に対する彼らのコスト優位の主要部分である。 

 It's also no accident that scripting languages such as Perl,Python, PHP, and now Ruby, play such a large role at web 2.0 companies.Perl was famously described by Hassan Schroeder, Sun's first webmaster,as "the duct tape of the internet." Dynamic languages (often calledscripting languages and looked down on by the software engineers of the era ofsoftware artifacts) are the tool of choice for system and networkadministrators, as well as application developers building dynamic systems thatrequire constant change.
Web2.0の企業にPerl, Python, PHP, and now Rubyのようなスクリプトを書いてそのような大きな役割を果たすのもは同じく偶然ではない。Perlは、サンの最初のWeb 担当者、ハッサン・シュレーダーによって「インターネットの配管テープ」だと記述され有名だ。ダイナミックな言語は(しばしばソフトウェア人工物の時代のソフトウェア・エンジニアによって言語を書くことと呼ばれて、そして軽蔑されたが)システムおよびネットワークアドミニストレーターのためにそして同様に絶え間がない変更を必要とするダイナミックなシステムを構築しているアプリケーションデベロッパーにとっても特選のツールである。 

2.Users must be treated as co-developers, in a reflection of open source development practices (even if the software in question is unlikely to be released under an open source license.) The open source dictum, "release early and release often" in fact has morphed into an even more radical position, "the perpetual beta," in which the product is developed in the open, with new features slipstreamed in on a monthly, weekly, or even daily basis. It's no accident that services such as Gmail, Google Maps, Flickr, del.icio.us, and the like may be expected to bear a "Beta" logo for years at a time. 
ユーザーは、(たとえ問題のソフトウェアがオープンソース許可証の下でリリースされることがありそうもないとしても)、オープンソース開発の実践を反映して、共同デベロッパーとして扱われなくてはならない。 オープンソース見解は、「リリースを早く、そしてしばしばリリース」というように、実際、商品が、月や、週に1度か、あるいは毎日ベースででさえ、新しい伴流の様な機能をもって、戸外に開発されている、「永続的なベータ版」という、さらにいっそう急進的な立場に変形して来ている。Gmail、Googleマップのようなサービス、Flickr、del.icio.us、などが一度表示されると、何年もの間「ベータ版」のロゴを抱くと思われるかもしれないことは偶然ではない。 

Real time monitoring of userbehavior to see just which new features are used, and how they are used, thusbecomes another required core competency. A web developer at a major onlineservice remarked: "We put up two or three new features on some part of thesite every day, and if users don't adopt them, we take them down. If they likethem, we roll them out to the entire site."
単に新しい機能が使われるか、そしてそれらが、どのように使われるのかを見てユーザー行動のリアルタイムモニタリングをすることで、他のコア能力を必要となる。主要なオンライン・サービスのWebデベロッパーが次のように述べた:「我々は毎日2つあるいは3つの新しい機能をサイトのいずれかの部分の上に置く、そしてもしユーザーがそれらを採用しないなら、我々はそれらを取り下げる。もしそれらをユーザーが好きであるなら、我々は全サイトにそれらを展開する。」 

 Cal Henderson, the lead developer of Flickr, recently revealed that theydeploy new builds up to every half hour. This is clearly a radicallydifferent development model! While not all web applications are developed in asextreme a style as Flickr, almost all web applications have a development cyclethat is radically unlike anything from the PC or client-server era. It is forthis reason that a recent ZDnet editorial concluded that Microsoft won't be ableto beat Google: "Microsoft's business model depends on everyoneupgrading their computing environment every two to three years. Google'sdepends on everyone exploring what's new in their computing environment everyday."
Flickrの主要なデベロッパー、カル・ヘンダーソンは、最近30分ごとに新しい構築を実装配備すると明らかにした。 これは明らかに根本的に異なった開発モデルである! すべてのWebアプリケーションがFlickrと同じぐらい過激なスタイルで開発されているわけではない一方で、ほとんどすべてのWebアプリケーションはPCあるいはクライアント・サーバ時代からのものとは根本的に異なっている開発サイクルを持っている。 最近のZDnet編集はマイクロソフトにはグーグルを打ち負かすことはできないだろうと結論付けた。つまり「マイクロソフトのビジネスモデルは皆が2から3年ごとに彼らのコンピュータ環境を引き上げることに依存するのがこの理由である。 Googleのビジネスモデルは皆が毎日彼らのコンピューター環境で何か新しいものを探究することに依存するからだ。」 

 While Microsoft has demonstrated enormous ability to learnfrom and ultimately best its competition, there's no question that this time,the competition will require Microsoft (and by extension, every other existingsoftware company) to become a deeply different kind of company. Native Web 2.0companies enjoy a natural advantage, as they don't have old patterns (andcorresponding business models and revenue sources) to shed.
マイクロソフトがその競争相手から学んで、そして究極的に負かす巨大な能力を実践してきた一方で、今回は、コンテストがマイクロソフト(そして、拡大すると、すべての他の既存のソフトウェア企業)に深く異なった種類の企業になるように要求するであろうことについて疑いがない。彼らが拭い落とすべき古いパターン(そして対応するビジネスモデルと収入源)を持っていないから、生まれつきWeb2.0の企業が生得的な優位性を享受する。

 A Web 2.0 Investment Thesis
2.0の投資命題1つのクモの巣 

 Venture capitalist Paul Kedrosky writes: "The key is to find the actionable investments where you disagree with the consensus". It's interesting to see how each Web 2.0 facet involves disagreeing with the consensus: everyone was emphasizing keeping data private, Flickr/Napster/et al. make it public. It's not just disagreeing to be disagreeable (pet food! online!), it's disagreeing where you can build something out of the differences. Flickr builds communities, Napster built breadth of collection.
投機家ポール・Kedrosky#:「キーはあなたが意見一致と意見が違う訴訟可能な投資を見いだすことである」。 どのようにそれぞれのWeb2.0側面が意見一致と意見が違うことを伴う:皆がデータを個人的にしておくこと、Flickr / Napster /およびその他がそれを公共にすることを強調していたか見ることは面白い。 それは単に(オンラインのペットフード!!)不愉快であるために一致しなくているだけではなく、それはあなたがどこ(で・に)相違から何かをうち立てることができるかについて意見を異にしている。 Flickrは共同体を築く、Napsterはコレクションの幅の広さを構築した。 

 Another way to look at it is that the successful companies all give up something expensive but considered critical to get something valuable for free that was once expensive. For example, Wikipedia gives up central editorial control in return for speed and breadth. Napster gave up on the idea of "the catalog" (all the songs the vendor was selling) and got breadth. Amazon gave up on the idea of having a physical storefront but got to serve the entire world. Google gave up on the big customers (initially) and got the 80% whose needs weren't being met. There's something very aikido (using your opponent's force against them) in saying "you know, you're right--absolutely anyone in the whole world CAN update this article. And guess what, that's bad news for you."
それを見るもう1つの方法が成功した企業がすべてかつて高価であった無料で高価な何かを得るべき高価であるが、重大であると思われた何かを断念するということである。 例えば、Wikipediaはスピードと幅の広さのお返しに中央編集のコントロールを断念する。 Napsterは「カタログ」(ベンダーが売っていたすべての歌)の考えを断念して、そして幅の広さを手に入れた。 アマゾンは物理的な店頭を持っていることについての考えを断念したが、全部の世界にサービスすることができた。 Googleが(初めに)大きい顧客を断念して、そしてその必要が満たされていなかった80%を手に入れた。 言うことにおいて、非常にaikido に(あなたの対抗者の力を使ってそれらに対して)何かがある「いいですか、あなたは正しい - 絶対的に世界全体の中の誰でもこの論文を更新することができる. そして何か言い当てなさい、それはあなたのために悪いニュースである。」

--Nat Torkington
  ナットTorkington

5. Lightweight Programming Models
5.軽量のプログラミングモデル 

 Once the idea of web services became au courant,large companies jumped into the fray with a complex web services stack designedto create highly reliable programming environments for distributedapplications.
Webサービスの考えが現代的になった途端に、大企業が分散アプリケーションのために大いに信頼性が高いプログラミング環境を作るよう設計された複雑なWebサービススタックを使う争いにすぐに取りかかった。 

 But much as the web succeeded precisely because itoverthrew much of hypertext theory, substituting a simple pragmatism for idealdesign, RSS has become perhaps the single most widely deployed web servicebecause of its simplicity, while the complex corporate web services stacks haveyet to achieve wide deployment.
けれども、それがハイパーテキスト理論の多くをひっくり返したから、Webがまさしく成功したように、理想的なデザインの代わりに単純な実用主義を用いて、RSSはその単純さのために多分一つの最も広く実装されたWebサービスになっているが、他方複雑な企業のWebサービススタックはまだ広範な実装配備を達成していない。 

 
Similarly, Amazon.com's web services are provided in twoforms: one adhering to the formalisms of the SOAP (Simple Object AccessProtocol) web services stack, the other simply providing XML data over HTTP, ina lightweight approach sometimes referred to as REST (Representational StateTransfer). While high value B2B connections (like those between Amazon andretail partners like ToysRUs) use the SOAP stack, Amazon reports that 95% ofthe usage is of the lightweight REST service.
同様に、アマゾン・ドット・コムのWebサービスは2つのフォームで提供される:一つはSOAP(単純なオブジェクトアクセスプロトコル)Webサービススタックの形式主義に固執しており、他はREST(表現状態転送)として参照された、軽量のアプローチでのHTTP越しにXMLデータを時々単に提供する。 (アマゾンとトイザラスのような小売りパートナーの間の接続のような)高い価値B2B接続がSOAPスタックを使う一方で、使用法の95%が軽いRESTサービスであるとアマゾンは報告する。

 This same quest for simplicity can be seen in other"organic" web services. Google's recent release of Google Maps is acase in point. Google Maps' simple AJAX(Javascript and XML) interface was quickly decrypted by hackers, who thenproceeded to remix the data into new services.
単純さのこの同じ探求は他の「有機体的」Webサービスで見ることができる。 グーグルマップのGoogleの最近のリリースは好事例である。 Googleマップの単純なAJAX(非同期ジャバスクリプトXML:エージャックスと読む)インタフェースはハッカーによってすばやく解読されたが、そのハッカーたちは新しいサービスの中にそのデータを再混在させる処理をした。

 Mapping-related web services had been available for sometime from GIS vendors such as ESRI as well as from MapQuest and MicrosoftMapPoint. But Google Maps set the world on fire because of its simplicity.While experimenting with any of the formal vendor-supported web servicesrequired a formal contract between the parties, the way Google Maps wasimplemented left the data for the taking, and hackers soon found ways tocreatively re-use that data.
マッピング関連のWebサービスは(それまで)MapQuestとマイクロソフトMapPointからと同様、ESRIのようなGISのベンダーからしばらくの間利用可能であった。 けれどもGoogleマップがその単純さのために世界に火をつけた。正式のベンダーによって支援されたWebサービスのどれを使って実験するにしても当事者間に正式の契約を必要とする一方で、グーグルマップが実行された方法はデータを取得したままにさせたので、ハッカーがまもなく創造的にそのデータを再利用する方法を見いだした。 

 There are several significant lessons here:
ここにいくつかの重要な教訓がある: 

1. Support lightweight programming models that allow for loosely coupled systems. The complexity of the corporate-sponsored web services stack is designed to enable tight coupling. While this is necessary in many cases, many of the most interesting applications can indeed remain loosely coupled, and even fragile. The Web 2.0 mindset is very different from the traditional IT mindset!
疎結合システムを考慮に入れる軽いプログラミングモデルを支援しなさい。 企業が-支援するWebサービススタックの複雑さは密結合を可能にするよう意図される。 これが多くの場合必要である一方で、最も面白いアプリケーションの多くは本当に疎結合のままで、そしてさらにはかなくさえある。 Web2.0固定観念は伝統的なIT固定観念と非常に異なっている! 

2.Think syndication, not coordination. Simple web services, like RSS and REST-based web services, are about syndicating data outwards, not controlling what happens when it gets to the other end of the connection. This idea is fundamental to the internet itself, a reflection of what is known as the end-to-end principle.
調整ではなく、シンジケートを考えなさい。RSSと残りベースのWebサービスのように、単純なWebサービスは、それが接続の相手先に到着するとき、何が起きるかをコントロールしないで、データを外部へ、シンジケートを作ることである。 この考えはそれ自身インターネットにとって重要で、end-to-end principleとして知られているものの反映である。 

3.Design for "hackability" and remixability. Systems like the original web, RSS, and AJAX all have this in common: the barriers to re-use are extremely low. Much of the useful software is actually open source, but even when it isn't, there is little in the way of intellectual property protection. The web browser's "View Source" option made it possible for any user to copy any other user's web page; RSS was designed to empower the user to view the content he or she wants, when it's wanted, not at the behest of the information provider; the most successful web services are those that have been easiest to take in new directions unimagined by their creators. The phrase "some rights reserved," which was popularized by the Creative Commons to contrast with the more typical "all rights reserved," is a useful guidepost.

「ハッカーの可能性」と再混合可能性のために設計しなさい。 オリジナルのWebのようなシステム、RSSとAJAXはすべて共通にこれを持っている:再利用するべき障壁は極めて低い。 有用なソフトウェアの多くが実際にオープンソースであるが、しかしそれがそうではないときでさえ、ほとんど知的財産保護のやり方ではない。 Web ブラウザの「ビューソース」オプションはどんなユーザーでも他のいかなるユーザーのWeb ページでもコピーすることを可能にしたが、RSSはユーザーに、インフォメーションプロバイダの命令においてではなく、それが欲せられるとき、彼あるいは彼女が欲するコンテンツを見る権限を与えるよう設計された。つまり、それらの創造者によって想像されない新しい方向にすることが最も容易であった最も成功したWebサービスがそれらである。いっそう典型的な 「すべての権利は当方に帰属する」と対比して、創造的な常識によって普及させられた句「若干の権利は保留される」は有用な道標である。 


Innovation in Assembly
アセンプリでの革新
 

 Lightweight business models are a natural concomitant oflightweight programming and lightweight connections. The Web 2.0 mindset isgood at re-use. A new service like housingmaps.com was built simply by snappingtogether two existing services. Housingmaps.com doesn't have a business model(yet)--but for many small-scale services, Google AdSense(or perhaps Amazon associates fees, or both) provides the snap-in equivalent ofa revenue model.
軽量ビジネスモデルは軽量プログラムと軽量接続の自然の付随物である。 Web2.0固定観念は再利用に良い。単に2つの既存のサービスを一緒に手っ取り早く取り込むことによって、housingmaps.comのような新しいサービスが構築された。Housingmaps.comは(まだ)ビジネスモデルを持っていない - しかしGoogle AdSense(あるいは多分アマゾンパートナー料金、あるいは両方とも)の多くの小規模のサービスのために、収入モデルの等価スナップを提供する。 

 These examples provide an insight into another key web 2.0principle, which we call "innovation in assembly." When commoditycomponents are abundant, you can create value simply by assembling them innovel or effective ways. Much as the PC revolution provided many opportunitiesfor innovation in assembly of commodity hardware, with companies like Dellmaking a science out of such assembly, thereby defeating companies whose businessmodel required innovation in product development, we believe that Web 2.0 willprovide opportunities for companies to beat the competition by getting betterat harnessing and integrating services provided by others.
これらの例はもう1つの鍵となるWeb2.0の原則への洞察を提供するが、それを我々が「アセンプリでの革新」と呼ぶ。商品コンポーネントが豊富であるとき、新奇的、あるいは効果的な方法でそれらを単に組み立てることによって、あなたは価値を創出することができる。 このようなアセンプリから科学を作るという状態で、PC革命が、それによってそのビジネスモデルが製品開発で革新を必要とした企業を負かして、デルのような企業に、商品ハードウェアのアセンプリで革新に多くの機会を提供したけれども、我々はWeb2.0が、他の人たちによって提供されたサービスを利用して、そして統合することがもっと上手になることによって、競合を破る企業に機会を提供するであろうと信じる。

6. Software Above the Level of a Single Device
6.一つのデバイスのレベルを超えたソフトウェア 

 One other feature of Web 2.0 that deserves mention is thefact that it's no longer limited to the PC platform. In his parting advice toMicrosoft, long time Microsoft developer Dave Stutzpointed out that "Useful software writtenabove the level of the single device will command high margins for a longtime to come."
言及に値するWeb2.0の他の1つの機能はそれがもうPCプラットホームに限定されていないという事実である。マイクロソフトにへの彼の別れアドバイスで、長時間マイクロソフトデベロッパーであったデイブ・シュトゥッツは「有用な一つのデバイスのレベルを超えて書かれたソフトウエアが来るべき長い間高いマージンを自由にできるであろう」ことを指摘した。 

 Of course, any web application can be seen as softwareabove the level of a single device. After all, even the simplest webapplication involves at least two computers: the one hosting the web server andthe one hosting the browser. And as we've discussed, the development of the webas platform extends this idea to synthetic applications composed of servicesprovided by multiple computers.
もちろん、どんなWebアプリケーションでも一つのデバイスのレベル以上のソフトウェアとして見ることができる。結局のところ、最も単純なWebアプリケーションさえ少なくとも2つのコンピュータを巻き込む:孫一つはWeb サーバのホストとして機能しし、もう一つはブラウザーをホストする。 そして我々が論じたように、プラットホームとしてのWebの開発は多数のコンピュータによって提供されたサービスで構成された合成のアプリケーションにこの考えを拡張する。 

 But as with many areas of Web 2.0, where the"2.0-ness" is not something new, but rather a fuller realization ofthe true potential of the web platform, this phrase gives us a key insight intohow to design applications and services for the new platform.
けれどもWeb2.0の多くの分野と同じように、「2.0-らしさ」が新しい何かではないところ、けれどもどちらかと言えばWebプラットホームの本当の可能性をもっといっぱい認識することで、この句は我々に新しいプラットホームのためにアプリケーションとサービスを設計する方法へのカギとなる洞察を与える。 

 To date, iTunes is the best exemplar of this principle.This application seamlessly reaches from the handheld device to a massive webback-end, with the PC acting as a local cache and control station. There havebeen many previous attempts to bring web content to portable devices, but theiPod/iTunes combination is one of the first such applications designed from theground up to span multiple devices. TiVo is another good example.
今までに、iTunesはこの原則の最も良い模範である。このアプリケーションは、PCがローカルなキャッシュとコントロールステーションの役を務めるという状態で、手に持って使う装置から重大なWebバックエンドまでスムーズに手を伸ばす。 Webコンテンツをポータブル装置にもたらす多くの前の試みがあった、しかしiPod / iTunesの組み合わせはこのようなアプリケーションが多数の方策に及ぶために一番下から上まで設計した最初の1つである。 TiVoはもう1つの良い例である。 

 iTunes and TiVo also demonstrate many of the other coreprinciples of Web 2.0. They are not web applications per se, but they leveragethe power of the web platform, making it a seamless, almost invisible part oftheir infrastructure. Data management is most clearly the heart of theiroffering. They are services, not packaged applications (although in the case ofiTunes, it can be used as a packaged application, managing only the user'slocal data.) What's more, both TiVo and iTunes show some budding use ofcollective intelligence, although in each case, their experiments are at warwith the IP lobby's. There's only a limited architecture of participation iniTunes, though the recent addition of podcastingchanges that equation substantially.
iTunesとTiVoは同じくWeb2.0他のコアの原則の多くを実証する。 それらはそれ自体ではWebアプリケーションではない、しかし、それらは、それをそれらの基礎構造のスムーズな、ほとんど見えない部分にして、Webプラットホームの力をてこ入れする。 データ管理は最も明らかにそれらが提案する心である。 それらは、(iTunesに関しては、それが、ただユーザーのローカルなデータだけを管理して、パッケージされたアプリケーションとして使用することができるけれども)、パッケージされたアプリケーションではなく、サービスであるその上、それぞれのケースで、それらの実験はIPロビーとの戦争中にあるけれども、TiVoとiTunes両方が共同の知性の若干の芽を出し始めた利用を示す。 podcastingの最近の付加が十分にその方程式を変えるけれども、iTunesに参加するある一つの限定されたアーキテクチャがあるだけである。 

 This is one of the areas of Web 2.0 where we expect to seesome of the greatest change, as more and more devices are connected to the newplatform. What applications become possible when our phones and our cars arenot consuming data but reporting it? Real time traffic monitoring, flash mobs,and citizen journalism are only a few of the early warning signs of thecapabilities of the new platform.
これは、ますます多くのデバイスが新しいプラットホームに接続しているから、我々が最も大きい変更のいくらかを見ることを予期するWeb2.0の分野の1つである。我々の電話と我々の自動車はデータを消費しないでそれを報告するとき、どんなアプリケーションが、可能になるか?リアルタイムトラフィックモニタリング、低俗な暴徒と国民ジャーナリズムは、新しいプラットホームの能力の早期警報のサインのほんの少しに過ぎない。

 7. Rich User Experiences
7.豊かなユーザー経験 

 As early as Pei Wei's Violabrowser in 1992, the web was being used to deliver "applets" andother kinds of active content within the web browser. Java's introduction in1995 was framed around the delivery of such applets. JavaScript and then DHTMLwere introduced as lightweight ways to provide client side programmability andricher user experiences. Several years ago, Macromedia coined the term"Rich Internet Applications" (which has also been picked up by opensource Flash competitor Laszlo Systems) to highlight the capabilities of Flashto deliver not just multimedia content but also GUI-style applicationexperiences.
早くてペイ・ウェイのViola browserに1992年に、WebはWeb ブラウザの中で「アプレット」と他の種類のアクティブなコンテンツを配信するために使われていた。 1995年のJavaの導入はこのようなアプレットの配信の周りで枠にはめられた。 JavaScriptそして次にDHTMLがクライアントサイドのプログラムの可能性とより豊かなユーザー経験を供給するために軽量な方法として、導入された。 数年前に、MacromediaはマルチメディアコンテンツだけではなくGUI式のアプリケーション経験も配達するためにフラッシュの能力を強調するために(同じくオープンソースフラッシュ競争相手ラースロシステムズによって拾い上げられた)用語「豊かなインターネットアプリケーション」を造り出した。 

 However, the potential of the web to deliver full scaleapplications didn't hit the mainstream till Google introduced Gmail, quicklyfollowed by Google Maps, web based applications with rich user interfaces andPC-equivalent interactivity. The collection of technologies used by Google was christenedAJAX, in a seminal essay by Jesse James Garrettof web design firm Adaptive Path. He wrote:
しかしながら、Googleが速くGoogleマップによって後に続かれたGmail、豊かなユーザインタフェースとPCと同等の対話性を持っているWebベースのアプリケーションを導入するまで、Webの全面的なアプリケーションを届ける可能性は主流に打撃を与えなかった。 Googleによって使われる技術のコレクションは、Webデザイン企業Adaptiveパスのジェシー・ジェームズ・ギャレットによる影響力があるエッセイで、エイジャックスの洗礼を受けたのであった。 彼が次のように書いた: 

 "Ajaxisn't a technology. It's really several technologies, each flourishing in itsown right, coming together in powerful new ways. Ajax incorporates:
「エイジャックスは技術ではない。 それは強力な新しい方法で一緒にやってきて、それぞれのそれ自身の権利で繁栄することであり、本当にいくつかの技術である。エイジャックスは下記の具現化である。: 

・ standardsbased presentation using XHTML and CSS;
 XHTMLとCSSを使って標準ベースの提示; 

 ・dynamic display and interaction using the Document Object Model;
  ドキュメントオブジェクトモデルを使ってダイナミックなディスプレイと相互作用; 

・ data interchange and manipulation using XML and XSLT
 XML and XSLTを使ってデータ交換と操作; 

・ asynchronousdata retrieval using XMLHttpRequest;
 XMLHttpRequestを使っている非同期のデータ検索; 

 and JavaScript binding everything together."
 そして一緒にすべてをまとめているJavaScript。」 


Web 2.0 Design Patterns
Web2.0デザインパターン 

 In his book, A Pattern Language, Christopher Alexander prescribes a format for the concise description of the solution to architectural problems. He writes: "Each pattern describes a problem that occurs over and over again in our environment, and then describes the core of the solution to that problem, in such a way that you can use this solution a million times over, without ever doing it the same way twice."
彼の本、#で、クリストファー・アレクサンダーは建築の問題に対する解決の簡潔な記述のためにフォーマットを規定する。 彼が書く:「それぞれのパターンが我々の環境で繰り返し何度も存在する問題を記述して、そして次に2度同じように今までにそれをしないでその問題、あなたが使うことができるこのような方法で百万回終わっているこの解決、に対する解決のコアを記述する。」 

1. The Long Tail
長い尾 


Small sites make up the bulk of the internet's content; narrow niches make up the bulk of internet's the possible applications. Therefore: Leverage customer-self service and algorithmic data management to reach out to the entire web, to the edges and not just the center, to the long tail and not just the head.
小さいサイトがインターネットのコンテンツの大部分を構成する;狭い適所が可能なアプリケーションにインターネットの大部分を上げさせる。 従って:全部のWebに、センターだけではなく、エッジに、船首だけではなく、長い尾部に手を伸ばすために顧客-セルフサービスの、そしてアルゴリズムのデータ管理をてこ入れすること。 

 2.Data is the Next Intel Inside
データは次のインテルインサイド 

Applications are increasingly data-driven. Therefore: For competitive advantage, seek to own a unique, hard-to-recreate source of data.
アプリケーションはますますデータ駆動である。 従って:競合する利点のために、ユニークな、再現しにくいデータの情報提供者を所有しようと努めること。

 3.Users Add Value
ユーザーが価値を加える 


The key to competitive advantage in internet applications is the extent to which users add their own data to that which you provide. Therefore: Don't restrict your "architecture of participation" to software development. Involve your users both implicitly and explicitly in adding value to your application.インターネットアプリケーションにおける競合する利点へのキーはあなたが提供するユーザーがそれに彼ら自身のデータを加える程度である。 そのために:「参加のあなたのアーキテクチャ」をソフトウェア開発に制限してはいけない。 暗黙的にもそして明示的にも共にあなたのアプリケーションに価値を加えることにあなたのユーザーを巻き込むこと。 

4.Network Effects by Default
デフォルトでネットワーク効果


Only a small percentage of users will go to the trouble of adding value to your application. Therefore: Set inclusive defaults for aggregating user data as a side-effect of their use of the application.
ただユーザーの少しのパーセンテージだけがあなたのアプリケーションに価値を加えることについての問題に行くであろう。 従って、アプリケーションの彼らの使用の副作用としてのユーザーデータを集めるためお、内包デフォルトを設定すること。 

 5.Some Rights Reserved.
保留された若干の権利。 


 Intellectual property protection limits re-use and prevents experimentation. Therefore: When benefits come from collective adoption, not private restriction, make sure that barriers to adoption are low. Follow existing standards, and use licenses with as few restrictions as possible. Design for "hackability" and "remixability."
知的な不動産保護が再利用を制限して、そして実験を妨げる。 従って:利益が、個人の制限ではなく、共同の採用から来るとき、採用への障壁が低いことを確認しなさい。 既存の標準に従いなさい、そして可能な限り少い制約で許可証を使うこと。 「hackability」と「remixability」のために設計すること。 

 6.The Perpetual Beta
永続的なベータ 


When devices and programs are connected to the internet, applications are no longer software artifacts, they are ongoing services. Therefore: Don't package up new features into monolithic releases, but instead add them on a regular basis as part of the normal user experience. Engage your users as real-time testers, and instrument the service so that you know how people use the new features.
装置とプログラムがインターネットに接続しているとき、アプリケーションはもうソフトウェア人工物ではない、それらは進行中のサービスである。 そのために:新しい機能を一枚岩のリリースにパックするが、その代わりに通常の基礎の上にそれらを標準的なユーザー経験の一部として加えてはいけない。人々がどのように新しい機能を使うか知るにつれ、リアルタイムテスターとしてあなたのユーザーを雇用しそのサービスを測定すること。 

 7.Cooperate, Don't Control
協力して、制御しないこと   
Web 2.0 applications are built of a network of cooperating data services. Therefore: Offer web services interfaces and content syndication, and re-use the data services of others. Support lightweight programming models that allow for loosely-coupled systems.
Web2.0アプリケーションは協力しているデータサービスのネットワークでできている。 従って:Webサービスインタフェースとコンテンツシンジケートを申し出て、そして他のもののデータサービスを再利用すること。 大ざっぱにつながれたシステムを考慮に入れる軽量のプログラミングモデルを支援すること。 

 8.Software Above the Level of a Single Device
一つの装置のレベル以上のソフトウェア

The PC is no longer the only access device for internet applications, and applications that are limited to a single device are less valuable than those that are connected. Therefore: Design your application from the get-go to integrate services across handheld devices, PCs, and internet servers.PCはもうインターネットアプリケーションのための唯一のアクセス装置ではない、そして一つの装置に限定されているアプリケーションは接続されているそれらほど貴重ではない。 従って:始めからあなたのアプリケーションが手に持って使う装置、PCとインターネットサーバー全体に渡るサービスを統合するよう設計すること。

AJAX is also a key component of Web 2.0 applications suchas Flickr, now part of Yahoo!, 37signals' applications basecamp and backpack,as well as other Google applications such as Gmail and Orkut. We're entering anunprecedented period of user interface innovation, as web developers arefinally able to build web applications as rich as local PC-based applications.
エイジャックスは、GmailとOrkutのような他のGoogleアプリケーションと同様、同じくFlickr、今Yahoo!の一部、37signalsのアプリケーションbasecampとバックパックのようなWeb2.0のアプリケーションの1つの鍵となるコンポーネントである。 Webデベロッパーが最終的にローカルなPCベースのアプリケーションと同じぐらい豊かなWebアプリケーションを構築することが可能であるから、我々はユーザインタフェース革新の前例がない時期に入っている。 

 Interestingly, many of the capabilities now being exploredhave been around for many years. In the late '90s, both Microsoft and Netscapehad a vision of the kind of capabilities that are now finally being realized,but their battle over the standards to be used made cross-browser applicationsdifficult. It was only when Microsoft definitively won the browser wars, andthere was a single de-facto browser standard to write to, that this kind ofapplication became possible. And while Firefoxhas reintroduced competition to the browser market, at least so far we haven'tseen the destructive competition over web standards that held back progress inthe '90s.
興味深いことに、今探究されている能力の多くが何年もの間(今まで)周りにあった。90年代後期に、マイクロソフトとネットスケープ両方が今最終的に理解されている種類の能力のビジョンを持っていたが、しかし利用すべき標準の戦いはそれぞれのブラウザにまたがるアプリケーションを難しくした。この種類のアプリケーションが可能になったのは、マイクロソフトが決定的にブラウザ戦争に勝ったときであった。そしてアプリケーションを作るべき一つのデファクトのブラウザ標準が一つとなり、そしてFirefoxがブラウザマーケットに競争を再導入する一方で、少なくともこれまでのところ我々は90年代における進歩を留められたままのWeb標準に関する破壊的な競争を見ていません。 

 We expect to see many new web applications over the nextfew years, both truly novel applications, and rich web reimplementations of PCapplications. Every platform change to date has also created opportunities fora leadership change in the dominant applications of the previous platform.
我々は次の数年にわたって多くの新しいWebアプリケーションを見ることを予期する。それは、本当に斬新なアプリケーションと、PCアプリケーションの豊かなWeb再実装の両方である。すべてのプラットホームを最新に変更することが同じく前のプラットホームの最有力のアプリケーションのリーダーシップの変更の機会を作った。 

 Gmail has already provided some interesting innovations inemail, combining the strengths of the web (accessible from anywhere, deepdatabase competencies, searchability) with user interfaces that approach PCinterfaces in usability. Meanwhile, other mail clients on the PC platform arenibbling away at the problem from the other end, adding IM and presencecapabilities. How far are we from an integrated communications client combiningthe best of email, IM, and the cell phone, using VoIPto add voice capabilities to the rich capabilities of web applications? Therace is on.
Gmailは、(どこも、深いデータベース能力、検索可能性からアクセス可能な)使い勝手でPCインタフェースに接近するユーザインタフェースとWebの強さを一緒にして、すでに email上でいくつかの面白い革新を提供した。 一方、PCプラットホームの上の他のメールクライアントが、IMとプレゼンス能力を加えて、通信相手から離れて問題をつまみぐいしている。我々は、Webアプリケーションの豊かな性能に声能力を加えるためにVoIPを使って、電子メール、IMと携帯電話のベストを結合している統合化された通信クライアントからどれぐらい離れているというのか?競争は続く。 

 It's easy to see how Web 2.0 will also remake the addressbook. A Web 2.0-style address book would treat the local address book on the PCor phone merely as a cache of the contacts you've explicitly asked the systemto remember. Meanwhile, a web-based synchronization agent, Gmail-style, wouldremember every message sent or received, every email address and every phonenumber used, and build social networking heuristics to decide which ones tooffer up as alternatives when an answer wasn't found in the local cache.Lacking an answer there, the system would query the broader social network.
Web2.0がどのように同じく住所録を作り直すであろうか見ることは容易である。 Web2.0-スタイル住所録がPCあるいは電話の上にただローカルな住所録をあなたが明示的にシステムに覚えているように依頼した接触先のキャッシュとして取り扱うであろう。一方、Gmail風のWebベースの同期化エージェントがすべてのメッセージがすべての電子メールアドレスと使われたすべての電話番号を送るか、あるいは受け取ったことを覚えていて、そして、答えがローカルなキャッシュに見いだされなかったとき、選択肢としてどれを提供するべきか決める社会のネットワーキング発見的学習を構築するであろう。そこで答えがなければ、システムはより広範囲の社会のネットワークに問い合わせるであろう。 

 A Web 2.0 word processor would support wiki-stylecollaborative editing, not just standalone documents. But it would also supportthe rich formatting we've come to expect in PC-based word processors. Writely is a good example of such anapplication, although it hasn't yet gained wide traction.
Web2.0ワードプロセッサーが、スタンドアローンのドキュメントだけではなく、wiki式の共同編集をサポートするであろう。 しかし、PCベースのワードプロセッサーに期待してきたのと同じく豊かなフォーマット化をそれはサポートするであろう。Writelyはこのようなアプリケーションの良い例である。たとえ、それがまだ広範な牽引力を得ていないけれども。 

Nor will the Web 2.0 revolution be limited to PCapplications. Salesforce.com demonstrates how the web can be used to deliversoftware as a service, in enterprise scale applications such as CRM.
同様にWeb2.0革命はPCアプリケーションに限定されないであろう。 Salesforce.comはWebがどのようにCRMのような企業規模のアプリケーションで、サービスとして、ソフトウェアを届けるために使うことができるか説明する。 

 The competitive opportunity for new entrants is to fullyembrace the potential of Web 2.0. Companies that succeed will createapplications that learn from their users, using an architecture ofparticipation to build a commanding advantage not just in the softwareinterface, but in the richness of the shared data.
新しい参加者の競争機会は完全にWeb2.0の可能性を受け入れることである。 成功する企業が、参加のアーキテクチャをソフトウェアインタフェースだけではなく、共有されたデータの豊かさにおける犯し難い優位性を構築するために使って、彼らのユーザーから学習するアプリケーションを作成するであろう。

 Core Competencies of Web 2.0 Companies
Web2.0企業の核となる能力
 

 In exploring the seven principles above, we've highlightedsome of the principal features of Web 2.0. Each of the examples we've exploreddemonstrates one or more of those key principles, but may miss others. Let'sclose, therefore, by summarizing what we believe to be the core competencies ofWeb 2.0 companies:
上記の7つの原則を探究することにおいて、我々はWeb2.0の主要な機能の若干を強調した。 我々が探究した例のそれぞれがそれらの鍵となる原則の1つ以上を実演するが、しかし他のものを見落とすかもしれない。従って、我々は何がWeb2.0の企業の核となる能力であると信じるかを要約することによって、閉じよう: 

・ Services, not packaged software, with cost-effective scalability
 パッケージされたソフトウェアではなく、費用効果が高い拡大縮小可能性を持っているサービス 

・ Control over unique, hard-to-recreate data sources that get richer as more people use them
 もっと多くの人々がそれらを使うにつれて、もっと豊かになるユニークな、再現しにくいデータ情報源についての制御 

・ Trusting users as co-developers
 共同デベロッパーとしての信頼するユーザー 

・ Harnessing collective intelligence
 集合の知性を利用する 

・ Leveraging the long tail through customer self-service
 セルフサービスで顧客を通してロングテールをてこ入れする 

・ Software above the level of a single device
 一つの装置のレベル超えるソフトウェア 

・ Lightweight user interfaces, development models, AND business models
 軽量のユーザインタフェース、開発モデルとそしてビジネスモデル 


The next time a company claims that it's "Web2.0," test their features against the list above. The more points theyscore, the more they are worthy of the name. Remember, though, that excellencein one area may be more telling than some small steps in all seven.
次に企業がそれは「Web2.0」であると主張するとき、それらの機能を上記のリストに対してテストしなさい。 それらがいっそう多くのポイントを得点すると、それだけそれらがもっと名前に値する。けれども、1つの分野の素晴らしさが7つのすべての小さなステップのいくつかよりいっそう効果的であるかもしれないことを忘れないでください。 

ここから先は

171字

¥ 100

期間限定 PayPay支払いすると抽選でお得に!

この記事が気に入ったらサポートをしてみませんか?