Веб, Веб 2.0 и Веб 3.0 |
Каждый человек, посещающий интернет чаще одного раза в неделю, наверняка обратил внимание на термин «Веб 2.0». Элементарная логика подсказывает нам, что если веб (web) – это привычная паутина сайтов, ссылающихся друг на друга, то Веб 2.0 – это, скорее всего, ее развитие или новая версия. На этом, как говорила Масяня, мысль останавливается. Но в последнее время стали появляться упоминания уже о следующей версии веба – 3.0. Так что же мы на самом деле видим, когда запускаем браузер? В какую версию «паутины» попадаем, и в чем разница межу этими версиями? Мы решили окончательно разобраться в этом вопросе
Тим и его команда
Для начала разберемся с первым вебом. В 1989 году британский ученый Тим Бернерс-Ли работал в Европейском совете по ядерным исследованиям (CERN) – организации, занимающейся разработками в области физики. Бернерс-Ли в то время как раз проектировал внутреннюю компьютерную сеть CERN. В процессе работы ученый создал концепцию глобальной гипертекстовой сети.
Предполагалось, что с ее помощью сначала сотрудники CERN, а затем и ученые всего мира будут делиться друг с другом документацией по своим разработкам. Основой сети должен был стать массив гипертекстовых (то есть ссылающихся друг на друга) документов. Это позволило бы не перегружать информацией каждый отдельный документ, а также облегчить поиск данных, создать удобные интерактивные оглавления и т.д.
Для реализации проекта Бернерс-Ли и его коллеги разработали несколько базовых механизмов, в том числе URL (определитель местонахождения ресурса или, другими словами, адрес, который мы пишем в браузере: например, http://technofresh.ru/), протокол HTTP и язык HTML. Это и были «три кита» Всемирной паутины.
Впоследствии все три протокола неоднократно изменялись и дорабатывались, однако принято считать, что WWW появилась именно в 1989 году. Название «WorldWideWeb» возникло год спустя: Бернерс-Ли назвал этим именем первый веб-браузер. А самый первый сайт был выложен в сеть в августе 1991. На нем описывались принципы работы веб-сервера и браузера и сама идея Веба. Для того чтобы первосайтом могли пользоваться хотя бы сотрудники CERN, на нем разместили также внутренний телефонный справочник этой организации. Сейчас это крайне трудно представить, но 16 лет назад Сеть состояла из одного-единственного экспериментального узла, которому и предстояло стать точкой Большого Интернет-Взрыва.
В 1994 году Тим Бернерс-Ли основал и возглавил Консорциум Всемирной паутины (World Wide Web Consortium, сокращенно W3C). К тому времени сеть заметно выросла, к разработке сайтов и протоколов подключилось множество инженеров и программистов, и для наведения порядка было создано своего рода «технологическое правительство». Стандарты и протоколы, утверждаемые W3C, называются «рекомендациями», однако по сути являются негласными законами, которым стараются следовать все разработчики «софта» и «железа». Без W3C Сеть превратилась бы в новый Вавилон. Заслуги создателя WWW оценены не только «технарями»: в 2004 году королева Великобритании Елизавета II пожаловала ученому рыцарское звание, и с тех пор его следует называть не иначе как сэр Тимоти Джон Бернерс-Ли. Его авторству принадлежит еще множество важных разработок, но к ним мы вернемся чуть позже, когда будем рассказывать о следующих поколениях, а точнее, слоях «паутины».
Сеть или Паутина?
Итак, World Wide Web появилась в Женеве (где находится CERN) в 1989 году. Но не сам интернет – не стоит путать эти понятия. Интернет и его базовые протоколы (называемые стеком TCP/IP) выросли из американской военной сети ARPANet.
Интернетом, по сути, можно назвать любую сеть, работающую на протоколах TCP/IP. Окончательный переход ARPANet на TCP/IP произошел в 1983 году, который и считается годом рождения интернета.
Сам по себе интернет – это своеобразная среда обитания (его можно сравнить с планетой), в которой живут разные протоколы и службы (как на планете – растения и животные). Так, наиболее популярными, имеющими прикладное значение интернет-службами являются: e-mail (основные протоколы – SMTP, POP3, IMAP), мессенджеры и чаты, механизмы передачи файлов (FTP), файлообменные сети, новостные группы и, конечно, WWW – паутина сайтов. И хотя в обычном разговоре Сеть и Паутина (Internet и WWW) являются синонимами, на самом деле это совсем не одно и то же. Чтобы окончательно расставить точки над i, скажем, что приставка «www» в адресах сайтов сегодня совершенно необязательна, и ее следует рассматривать как анахронизм. Мы по инерции набираем четыре лишних символа (три w и точку), когда обращаемся к тому или иному ресурсу. Но большинство современных сайтов давно находится по прямым адресам второго уровня (http://technofresh.ru) и имеет «синонимы» третьего уровня (http://www.technofresh.ru), которые ведут на тот же самый сайт. Из этого правила бывают редкие исключения (владельцы сайтов ведь могут настроить их как угодно), но в 98% случаев можно не набирать www: и так понятно, что сайт – это часть Всемирной паутины.
А что дальше?
Мы не станем подробно пересказывать историю первого веба. Скажем лишь, что в конце XX века в его развитие были вложены огромные средства.
Именно тогда стало популярным слово «дотком» (в переводе с английского – «точка-ком», «.com»). Так называли компании, чьи бизнес-модели целиком были основаны на работе в интернете. Большинство из них обитало в доменной зоне «com», что понималось как «компания» или «коммерческий». Инвесторам в то время рассказывали
о том, какими прибыльными могут быть интернет-предприятия, какие новые модели продаж могут появиться в Сети и как важно оказаться на этом рынке первыми. Поскольку идея только родилась, «истории успеха» продемонстрировать было трудно, а потому инвесторы верили интернет-деятелям на слово и вкладывали в «доткомы» колоссальные средства. Однако новая идея и новый рынок не всегда гарантируют успех. Это напоминает добычу золота: без грамотно проведенной геологоразведки трудно сказать, будем мы разрабатывать золотую жилу или перемалывать пустую породу.
Но времени на разведку не было, и многие искали золото в интернете, призвав на помощь лишь интуицию. Некоторые онлайновые предприятия получили дальнейшее развитие, но подавляющее большинство оказалось «мыльными пузырями», неэффективными и нежизнеспособными. И на рубеже нового тысячелетия рынок «доткомов» рухнул. В 2000-2001 годах многие сайты закрылись, а инвесторы начали срочную эвакуацию своих средств. В интернете началась «великая депрессия». Рынок сетевой рекламы к тому времени еще не сложился настолько, чтобы вытянуть на себе всю онлайновую экономику, электронная коммерция тоже еще находилась в зачаточном состоянии. Поэтому время «депрессии» пережили лишь акулы сетевого бизнеса, такие как Amazon и eBay. Но интернету в целом передышка пошла на пользу.
В период затишья веб-разработчики основательно переосмыслили как технологии, так и концепции построения сетевых ресурсов и их взаимодействия. Что же получилось в результате?
Революция технологий
Во-первых, получили развитие базовые протоколы. На смену традиционному HTML и верстке с помощью таблиц пришли XHTML (расширяемый HTML), DHTML (динамический HTML), XML (расширяемый язык разметки) и CSS (каскадные таблицы стилей). Это позволило строить сайты таким образом, чтобы отделить логику сайта от его дизайна, а дизайн – от контента. Таким образом, «движку» сайта, живущему на сервере, можно придать какой угодно вид – дизайн меняется за считанные секунды. А контент (наполнение) сайта теперь хранится в базе данных и подгружается по мере надобности.
Во-вторых, появилась технология AJAX (асинхронный JavaScript и XML), которая, по сути, была не самостоятельной разработкой, а идеей использования уже существующих механизмов. При применении AJAX сайту в ответ на действия пользователя не нужно перезагружать страницу полностью. Например, если вы заполнили некую форму и нажали кнопку «отправить», обновляется не страница, а только сама форма. Кроме того, на сайт может динамически догружаться с сервера необходимая информация, в том числе и самостоятельно, предугадывая нужды посетителя (например, если вы листаете фотогалерею, сайт сочтет логичным подгрузить следующую и предыдущую картинки, чтобы незамедлительно показать их вам, если вы воспользуетесь кнопками навигации).
С использованием AJAX веб-приложения стали похожими на обычные программы: в них появляются и исчезают дополнительные окна, элементы интерфейса перемещаются по сайту с помощью мышки и так далее – все, как в Windows. Появились даже визуальные текстовые редакторы, напоминающие привычный Word – со всеми его кнопками и «горячими клавишами», но работающими внутри браузера.
Кроме того, стала развиваться технология RSS. С ее помощью сайты «научились» автоматически, без участия человека, обмениваться друг с другом информацией, а пользователи получили возможность подписываться на интересующие их информационные каналы. Например, можно добавить в RSS-«читалку» ленту автомобильных новостей или анонсы концертов классической музыки: каждая новость, полученная по RSS, будет представлена в виде отдельного информационного блока – наподобие электронного письма.
Развитие информационных технологий не могло не привести к изменению и идеологии интернета.
Веб 2.0
На самом деле специального стандарта с названием «Веб 2.0» не существует. Это лишь идея, красивое название, придуманное другим человеком по имени Тим – на этот раз Тимом О’Рейлли, влиятельным американским издателем родом из Ирландии. Его компания O'Reilly Media занимается изданием компьютерно-ориентированных книг и сайтов и проведением конференций, посвященных развитию современных информационных технологий. О’Рейлли также является идеологом программного обеспечения с открытым исходным кодом.
В своей популярной статье «Что такое Веб 2.0» О’Рейлли рассуждает о развитии современного интернета и о том, чем он отличается от Интернета прежнего. Выводы получаются довольно серьезными. Оказалось, что, несмотря на крах доткомов, веб продолжает жить и развиваться. С другой стороны, в результате веб-эволюции выжили лишь сильнейшие, и у них есть некоторые общие черты.
Так, например, на смену «домашним страницам» пользователей пришли блоги. Это было не только техническое, но и социальное явление: с помощью блогов разрозненные страницы объединились в социальные сети, где каждый сам определяет круг своих интересов и общения. Таким образом, «домашние страницы» характерны для первого веба, а блоги – для второго.
Изменились также и пути распространения музыки, видео и прочего развлекательного контента. Если раньше его продавали легально (или раздавали пиратским образом) на том или ином сайте, то сегодня для этого используются файлообменные (пиринговые) сети или торрент-трекеры (одни пиратские сети прошлого превратились во вполне легальные средства доставки контента пользователям, другие стали маркетинговыми инструментами медиаиндустрии). Нагрузка, которая раньше приходилась на один сервер, теперь распределена по всему миру на миллионы частных компьютеров, объединенных в единое гигантское хранилище файлов. Это хранилище регулируется самостоятельно и практически не зависит от централизованных серверов.
То же происходит с базами данных. Раньше знания хранились в больших энциклопедиях, таких как Британника. Однако в новейшей истории им на смену приходят публичные, открытые базы знаний, такие как Википедия. Это – открытый проект, энциклопедия, содержание которой может изменить или дополнить любой пользователь. Если вы обладаете некоей информацией, записей о которой нет в Википедии, можно просто зарегистрироваться и создать там соответствующую страницу. Разумеется, в Википедии работает команда редакторов-добровольцев, которые следят за достоверностью записей и пресекают информационный вандализм, однако основной объем данных и создается, и потребляется самими пользователями.
Итак, общие черты Нового Интернета уже наметились, и их можно уловить и сформулировать. Первый веб работал так: один человек или небольшая группа людей (владельцы веб-ресурса) создавали и публиковали какой-либо материал, а пользователи (в идеале – в большом количестве) посещали этот ресурс и потребляли (читали или скачивали) информацию. Таким образом, работала схема «один-ко-многим».
Авторы энциклопедий раздавали читателям знания, владельцы музыки продавали ее меломанам, и так далее – каждый сайт старался привлечь пользователей и удержать их на своих страницах как можно дольше. Списки сайтов и страниц удобнее всего было хранить в каталогах, поэтому первый веб имел древовидную структуру. Частную почту и прочие данные в то время хранили тоже «древовидно», то есть в виде вложенных друг в друга папок. В каталоге «Входящая почта» находились подкаталоги «Друзья», «Работа», «Семья» и т.д. Если же случалось получить деловое письмо, например, от дальнего родственника, одновременно являющегося и другом, приходилось копировать его во все три папки или же держать в одной, а потом мучительно вспоминать, в какой именно.
В новейшей истории все изменилось. Сайты эпохи Веб 2.0 не предлагают посетителям собственный контент, однако представляют свободную площадь для размещения информации. К примеру, Живой Журнал – это место, где можно написать что-либо самостоятельно или прочитать творения других людей. При этом владельцы данного ресурса сами ничего не создают (а если им и приходится делать это, то доля такой информации ничтожно мала). Точно так же обстоит дело с фото- и видеохостингами. Например, Flickr или YouTube предлагают вам выложить собственные фотографии или видеоролики. То есть, пользователи самостоятельно и создают, и потребляют контент (здесь работает схема «многие-ко-многим»).
Два слова о программировании
Одной их характерных черт веб-приложений эпохи второго веба является статус «вечной беты». Бета-версией называют близкий к завершению, почти готовый программный продукт, который, однако, еще не является окончательным вариантом (релизом). Обычно бета-версии выдавались группам тестировщиков, которые искали в них ошибки и сообщали об этом разработчикам. В Вебе 2.0 статус бета-версии может «висеть» в заголовке приложения годами (почта GMail существует уже несколько лет, однако в ее логотипе до сих пор присутствует слово «beta»). Новые версии «движков» и обновления служб Веба 2.0 появляются едва ли не ежечасно. Обычный человек этого не видит, но подозревает, что сервис, которым он пользуется, постоянно меняется к лучшему.
Другое важное свойство касается создания сайтов. Разумеется, серьезные разработчики пишут каждый сайт с нуля. Однако большинство веб-мастеров используют готовые движки или их части, являющиеся отличным строительным материалом, причем даже не кирпичиками, а целыми блоками, из которых можно быстро и легко построить нужный сайт. Сегодня появились готовые движки с открытым кодом – их можно брать за основу и дорабатывать по мере надобности. Так, блог-движок Wordpress (http://wordpress.org) практически не требует навыков программирования. Любой человек, купивший простейший хостинг по цене 5-10 долларов в месяц, может поставить себе Wordpress и за полчаса настроить собственный сайт, способный быть и блогом, и простым сайтом с лентой новостей, и домашней страницей. Его внешний вид можно радикально изменить буквально одним кликом, выбрав любой из тысяч шаблонов, созданных энтузиастами со всего мира. При желании можно нарисовать и собственный интерфейс для вордпресса, но в этом случае вам понадобятся минимальные знания CSS-верстки.
Веб третий
Многие из вас спросят: «С первым и вторым вебом все понятно, но что такое Веб 3.0? Каково его место в нашей жизни?». Об этом и расскажем.
Веб 2.0 позволил миллионной армии пользователей сделать свой вклад в наполнение «паутины». Только самый ленивый еще не ведет собственный блог, не выкладывает в сеть свои фотографии и видеоролики, не пишет в Википедию и не оставляет объявления на форумах. В крайнем случае этот вклад может выражаться и в виде поисковых запросов, по которым поисковики накапливают статистику. Все это – огромный объем информации, впитываемый и индексируемый Сетью и ее роботами. В связи с этим возникла проблема.
Средний пользователь в состоянии понять, что написано на той или иной веб-странице, о чем идет речь в блоге, что представлено в очередном видеоролике на YouTube. Однако для того, чтобы найти тот или иной сайт или видеоролик, человеку нужны помощники – роботы, поисковые машины и т.д. И им не совсем ясно, а зачастую и вовсе непонятно, о чем мы ведем речь. С текстами проще, но тоже не всегда. Системы искусственного интеллекта могут проиндексировать все слова и уловить их суть, но уверенности, что все понято правильно, все равно не будет – слишком уж замысловата человеческая речь. Легкий оттенок иронии может перевернуть суть текста наизнанку. С картинками, видео и звуком еще сложнее. Особенно от этого страдает Google, купивший недавно сервис YouTube. На этом видеохостинге выложены тысячи роликов, что совершенно не устраивает их правообладателей. Периодически на Google устраиваются показательные зачистки, в ходе которых удаляются сотни тысяч единиц пиратского контента. Но, как правило, через пару дней пользователи выкладывают все это обратно. Компания несет убытки и проигрывает судебные иски – договориться мирно удается далеко не со всеми производителями музыки и фильмов.
В момент, когда проблема стала особенно острой, и появилась концепция Веба 3.0, предложенная уже известным вам сэром Тимом Бернерсом-Ли. Еще в 2001 году ученый опубликовал статью, в которой обозначил идею «семантической паутины». Это не другой веб, противопоставленный Вебу 1 или 2. Это – новый слой, еще одна паутина, которую следует натянуть над существующим интернетом, чтобы получилась этакая «сетка-трехстенка». Веб 3.0 – это уровень метаданных (т.е. данных о данных), на котором должны быть однозначно описаны свойства и содержание ресурсов. Для этого требуется детальная формализация данных – описание их структуры, а также правил и связей между их объектами. Консорциум W3 даже разработал специальный язык OWL, ontology web language – «язык описания онтологий», как раз и призванный описывать концептуальные схемы данных, используемые в Сети.
Итак, Веб 3.0 – это идея, которая должна помочь компьютерам понять, чем и как люди наполняют Сеть. Тогда компьютеры, в свою очередь, помогут нам: они возьмут на себя большую часть работы по увязке данных между разными ресурсами, смогут лучше и эффективнее обрабатывать информацию и сами будут находить способы ее обмена и взаимодействия с ней. Например, новость, проскользнувшая где-то в сети, автоматически будет добавляться в соответствующие статьи Википедии, если это уместно.
Третий веб призван объединить паутины первого и второго поколений, примирив противоречие между «чистым контентом» и площадками для него. Более того, сейчас ведутся работы по созданию интеллектуальных систем, способных понимать, что содержится в том или ином видеоролике, звуковом файле или изображении. Это поможет отделить пиратский контент от свободного и разрешить конфликты правообладателей с площадками типа YouTube.
<< Предыдущая В начало рубрики Следующая >>