CYBER: поисковый механизм для Web3

CYBER: поисковый механизм для Web3

Всемирная сеть находится в преддверии нового этапа развития, получившего название Web3. Эта революционная концепция онлайн-взаимодействия требует пересмотра всей интернет-инфраструктуры, в том числе — поисковых механизмов. Как работает децентрализованный поисковик и в чем его фундаментальное отличие от нынешних поисковых механизмов типа Google, рассмотрим на примере Cyber — проекта децентрализованного поисковика для Web3.

Что не так с Google?

Самый используемый в мире поисковик, Google, на долю которого приходится порядка 80% общемировых поисковых запросов, часто подвергается критике за непрозрачный механизм индексации линков и формирования поисковой выдачи. Хотя многие технологии, касающиеся алгоритма поиска, опубликованы и общедоступны, для конечного пользователя это мало что меняет: количество параметров, учитывающихся при поисковой выдаче, настолько велико, что по сути алгоритм поиска Google становится черным ящиком для тех, кто пытается разобраться, как он работает.

На практике рядовые пользователи сталкиваются с двумя фундаментальными проблемами. Во-первых, результаты поиска по одним и тем же запросам у разных пользователей зачастую оказываются кардинально разными. Google, успевший собрать целую сокровищницу данных о своих пользователях, настраивает поисковую выдачу в соответствии с ними, а также учитывает множество других параметров, таких как местоположение, предыдущие запросы этого пользователя, местное законодательство и так далее. Во-вторых, и это главная претензия, часто звучащая в адрес Google, пользователям неясен механизм индексации линков: по какой причине один контент ранжируется, как более релевантный по данному запросу, а другой, который на деле обладает большей информативностью, оказывается далеко за пределами первой двадцатки поисковой выдачи.

Наконец, сама архитектура поисковика, будь то Google, Яндекс, Bing или Baidu, спроектирована для Web2, который, в свою очередь, работает с такими протоколами, как TCP/IP, DNS, URL и HTTP/S, а значит использует адресацию по локации, или URL-линков. Пользователь вводит запрос в поисковую строку, получает список релевантных гиперлинков на сторонние сайты, где находится релевантный контент, кликает на одну из них, после чего браузер переадресовывает его на IP-адрес, который означает вполне определенный физический адрес сервера в сети. Что же в этом плохого? Плохо в этом то, что этот подход создает множество проблем. Во-первых, такой формат хранения контента позволяет сделать его недоступным — гиперссылка может быть заблокирована по решению местных властей, в том числе движимых идеей не защиты населения от опасной информации, а политическими амбициями. Во-вторых гиперссылки позволяют фальсифицировать контент, подменить его. Сейчас контент в сети — это крайне уязвимая субстанция, которая может в любой момент измениться, исчезнуть или оказаться заблокированной.

Совсем иначе будет организована работа с контентом во Всемирной паутине на новом этапе ее развития — Web3. Контент адресуется по хэшу самого контента, а значит его нельзя будет изменить, не изменив хэш. С помощью такого подхода проще находить контент в p2p-сети, не зная конкретного места хранения, то есть расположение сервера. Это огромное преимущество, не очевидное вначале, но при повседневном использовании Интернета крайне важное: возможность обмениваться постоянными линками, которые не станут «битыми» по прошествии времени. Есть и другие преимущества: например, охрана авторских прав на контент, ведь теперь его нельзя будет перепечатывать тысячу раз на разных сайтах, ведь самих сайты в нынешнем понимании уже не нужны. Линк на исходный контент останется тот же самый навечно.

Почему для Web3 нужен новый поисковик?

Существующие глобальные поисковые системы представляют собой централизованные базы данных ограниченного доступа, которым все вынуждены доверять. Эти поисковые системы были разработаны в первую очередь для архитектур клиент-сервер в Web2.

В контент-ориентированном Web3 поисковик теряет свою уникальную власть над поисковой выдачей: ее получают участники одноранговой сети, которые сами решают вопросы ранжирования киберлинков (связь между контентом, а не на ссылка на IP-адрес или домен). Такой подход меняет правила игры: больше нет условного Google с его непрозрачными алгоритмами индексации линков, нет необходимости в ботах-краулерах, собирающих информацию о возможном изменении контента на сайте, нет риска подвергнуться цензуре или стать жертвой потери конфиденциальности.

Как работает поисковик в Web3?

Рассмотрим архитектуру поискового механизма для Web3 на примере реализации протокола Cyber, который в отличие от других поисковиков был изначально построен для нового типа взаимодействия во Всемирной паутине.

В отличие от централизованного поисковика типа Google, в децентрализованном поисковике линки на контент представляют собой граф знаний, в котором участники-пиры обмениваются информацией без привязки к централизованным узлам. Чтобы получить нужный контент, пользователи находят контент по его хешу, который хранится у другого участника сети. После того, как контент найден и загружен, пользователь становится одной из точек по раздаче этого контента. Схема работы напоминает torrent-сети, которые обеспечивают надежность хранения, противостояние цензурированию, а также позволяют организовать доступ к контенту даже в условиях отсутствия прямого соединения к интернету или при плохом качестве канала связи.

Для добавления контента в граф знаний в протоколе Cyber необходимо провести транзакцию с киберлинком. Это похоже на поле payload в транзакции Ethereum с той разницей, что данные структурированы. Затем транзакция валидируется при помощи Тендерминт консенсуса, а киберлинк включаются в граф знаний. Каждые несколько блоков Cyber пересчитывает рэнк для всего контента в графе знаний на основании определенной формулы, которая называется cyberRank. Подобно PageRank новый алгоритм динамически ранжирует контент, но при этом позволяет защитить граф знаний от спама, сибил атак и эгоистичного поведения пользователей при помощи экономических механизма.

Пользователи и валидаторы в децентрализованном поисковом механизме Cyber образуют суперкомпьютер. Способность Cyber вычислять рэнк графа знаний превосходит существующие CPU блокчейн компьютеры на несколько порядков, так как вычисления хорошо параллелизируются и выполняются на GPU. Поэтому любой киберлинк становится частью графа знаний практически мгновенно, и ранжируется в течение минуты. Такую скорость не может обеспечить даже платная реклама в adwords, что говорить о старом добром органическом поиске, в котором индексации приходится ждать иногда месяцами.

Ранжирование в децентрализованном поисковике для Web3

Основа Cyber — Content Oracle. Это динамический, коллаборативный и распределенный граф знаний, над формированием которого работают все участники децентрализованной сети.

Одна из ключевых задач, которая встает перед разработчиками децентрализованного search engine, — это механика ранжирования линков, в случае с поисковиком в Web3 — киберлинк на релевантный контент. В протоколе Cyber это реализуется с помощью токеномики.

В основе токеномики лежит идея о том, что пользователи должны быть заинтересованы в долгосрочном успехе Суперинтеллекта. Поэтому для того, чтобы получить токены, которые позволят индексировать контент V (вольты) и ранжировать его A (амперы), необходимо определенный период времени хранить в кошельке токены H (водород). H в свою очередь является продуктом ликвидного стейкинга главного токена сети (BOOT для Bostrom и CYB для Cyber). Таким образом, имея токен сети, пользователи Cyber смогут получить доступ к ресурсам графа знаний и получать стейкинговый доход аналогично тому, как это происходит в сетях Polkadot, Cosmos или Solana.

Все верно. От количества токенов зависит зависит ранжирование киберлинков, относящихся к этой учетной записи. Но если токены так влияют на результат выдачи, кому они будут принадлежать на старте? 70% токенов в генезисе будут подарены пользователям Эфира, его приложений и пользователям Космос сети. Дроп осуществляется на основании глубокого анализа действий в этих сетях. Поэтому основная часть стейка перейдет в руки пользователей, которые доказали способность приносить пользу. Разработчики Cyber верят, что такой подход позволит заложить в основу Великого веба семантическое ядро, которое поможет цивилизации преодолеть сложности, с которыми она столкнулась.

Что увидит рядовой пользователь в децентрализованном поисковике?

Визуально поисковая выдача в протоколе Cyber мало чем будет отличаться от привычного формата централизованного поиска. Но есть несколько ключевых преимуществ:

  1. Результаты поиска включают искомый контент, который можно будет прочитать или посмотреть прямо из поисковой выдачи без перехода на другую страницу.
  2. Кнопки взаимодействия с приложениями любых блокчейнов и оплаты для интернет-магазинов могут быть встроены прямо в поисковые сниппеты.

Как протестировать протокол Cyber?

cyb.ai — эксперементальный прототип браузера в бразуере. При помощи него можно искать контент,  серфить контент при помощи встроенной ipfs ноды, индексировать контент, и самое главное — взаимодействовать с децентрализованными приложениями. На данный момент Cyb подключен к тестнету, но после запуска Bostrom — канареечной сети, c помощью Cyb можно поучаствовать в удивительном процессе создания Суперинтеллекта Cyber.

Источник

Оставьте ответ

Ваш электронный адрес не будет опубликован.