Поисковые системы отображают только 0.2% Web-страниц

28.07.2000, 13:45

Исследование, проведенное частной компанией BrightPlanet из Южной Дакоты, выявило, что Интернет стал настолько обширным, что поисковые системы способны показать лишь вершину айсберга - около 1/500 реально существующих страниц.

Компания, разработавшая для анализа Интернет новую программу LexiBot, заявила, что популярные механизмы поиска, такие как Yahoo!, AltaVista и Google, индексируют только статичные документы, без учета динамически изменяющихся и находящихся в базах данных, регистрируя таким образом порядка 1 млрд. страниц. ПО, созданное BrightPlanet за 6 месяцев, позволило говорить о приблизительном размере Интернет в 550 млрд. страниц. Компания подчеркнула роль гигантских баз данных, создаваемых правительственными учреждениями, университетами и корпорациями.

У нового ПО, LexiBot, есть и другие отличия от стандартных поисковых механизмов - цена и скорость. ПО оценено в $89.95 с возможностью тестового периода, а сам поиск будет занимать 10-25 минут для обычных запросов и до 90 минут для особо точных. Планируется, что программа найдет применение в основном в научных кругах. Обдумывается возможность продажи ПО коммерческим структурам для использования на сайтах компаний.

Опросы, проведенные в этом году NPD New Media Services среди 33000 пользователей поисковых служб, показали, что 81% людей находит необходимую информацию в большинстве случаев (весной 1999 их было 77%). 3% сообщили, что никогда не находят то, что ищут. По материалам РИА "РосБизнесКонсалтинг".

Читайте також