По оценкам исследовательской компании IDC, в этом году объем
информации, хранящейся в компьютерных системах всего мира, достигнет
5,444 экзабайт. Для сравнения, всего 5 лет назад, в 2003 году, этот
показатель был в 6,5 раза меньше – 831 петабайт. Чтобы понять, много
это или мало, достаточно сказать, что за всю свою многотысячелетнюю
историю человечество накопило в книгах "только" 200 петабайт.
Сокращения темпов роста информационных потоков в ближайшее время не
предвидится. Поэтому если не найти способ эффективно обрабатывать такое
количество данных, человечество ожидает то, что специалисты называют
"аналитическим параличом". Поиск и использование нужной информации
становятся все более сложными, трудоемкими и неэффективными, несмотря
на огромные прикладываемые усилия. Поэтому поиск новых подходов, в том
числе и для работы с интернетом, связующей нитью информационных
залежей, является одной из самых актуальных.
Слово – запрос – результат
Сегодня практически весь поиск в интернете осуществляется при помощи
ключевых слов. Однако этот метод себя полностью исчерпал. Большей
релевантности результатов и скорости поиска, чем у нынешних лидеров,
достичь практически невозможно. И у тех, кто работает исключительно
методом ключевых слов, нет ни малейшей надежды хоть как-то приблизиться
к Google. Строго говоря, и сам Google давно не использует чистый поиск
по ключевым словам – в ход идут более сложные алгоритмы. Более того,
традиционные методы представления информации весьма далеки от идеала.
Пользователь получает тысячи, а то и десятки тысяч ссылок, но никогда
не доходит дальше 30-й ссылки. А подавляющее большинство ограничиваются
просмотром первых 5-7 результатов. И если ответа в них нет,
пользователь, как правило, переформулирует запрос. Кроме того,
практически невозможно отследить связи искомых слов с другими объектами
и явлениями.
|