Что такое поисковый алгоритм? Как работает поисковый алгоритм?
Поисковые алгоритмы (алгоритм поисковых систем) – это особые математические формулы, по которым поисковая система решает задачу выдачи веб-сайтов в результатах поиска. Известно, что поисковые машины находят сайты по конкретным ключевым словам и фразам. Поисковые алгоритмы позволяют найти веб-сейты, которые наиболее точно соответствуют поисковому запросу пользователя, исключая площадки, с ненужным для пользователя контентом, либо использующие «черные» методы оптимизации.
Принцип работы
Поисковик руководствуется алгоритмом и анализирует контент сайта, после чего выясняет наличие в контенте ключевой фразы и принимает решение о том, насколько сайт соответствует поисковому запросу пользователя. В зависимости от степени соответствия сайту присваивается та или иная позиция в поисковой выдаче, то есть выше, или ниже. Каждая поисковая система имеет свой алгоритм, однако построены они на общих принципах. Например все поисковые системы оценивают уникальность текста. Отличия между ними – в некоторых инструментах анализа.
История
На первых порах развития Интернета поисковым системам для поиска нужного пользователю контента было достаточно лишь анализировать основные параметры сайта: заголовок, ключевые слова, количество текста. Но с появлением СЕО-оптимизации и спама, поисковики были вынуждены усложнять свои алгоритмы.
Механизм поисковых алгоритмов – секретная информация. Кроме разработчиков поисковой системы точно никто не знает, какие параметры учитывает алгоритм, а какие вообще не берет во внимание. Вся информация о работе алгоритмов – лишь личные выводы СЕО-оптимизаторов.
Алгоритмы Google
История алгоритмов Google началась с введения параметра PageRank.
На начальных этапах алгоритмы Google принимали во внимание только внутренние атрибуты страницы, однако позже стали учитывать такие факторы, как свежесть информации и географическая принадлежность. Позднее, Google стал разделять коммерческие и некоммерческие сайты.
Первый, сложный для «сеошников» алгоритм был введен в 2003 году и получил название «Флорида». Алгоритм поставил под сомнение целесообразность всех распространенных методов оптимизации на тот момент. Страницы с повторяющимся анкором и обилием ключевых слов были исключены из поисковой выдачи.
Алгоритмы Яндекса
Летом 2007 года Яндекс сообщил пользователям об изменениях в своих механизмах ранжирования сайтов. До этого момента они были неизвестны.
В 2008 году началось тестирование алгоритма «Магадан», учитывающего гораздо большее количество факторов. Были добавлены такие новшества, как распознавание аббревиатур, обработка транслита. Яндекс стал индексировать зарубежные веб-сайты. Релиз алгоритма произошел 16 мая 2008.
После введения алгоритма «Находка» в 2008 году, стали появляться в выдаче информационные сайты, в том числе Википедия.
В 2009 году Яндекс ввел алгоритм «Снежинск». Алгоритм использовал технологию машинного обучения «Матрикснет». С появлением «Снежинска» продвижение сайтов стало менее подконтрольно оптимизаторам.
В 2010 году изменился способ анализа контента сайта. Теперь сайты, перенасыщенные ключевыми словами, попадали под фильтры и понижались либо удалялись из поисковой выдачи.