Поисковые алгоритмы
Поисковый алгоритм - сложный алгоритм, которое позволяет ранжировать сайты так, чтобы давать пользователю наиболее релевантную выдачу. Это очень сложные алгоритмы, которые насчитывают мегабайты кода (по последним данным алгоритм Яндекса весит 5 мегабайт кода). Большой объем и сложность алгоритма в первую очередь связана с тем, что поисковой машине очень сильно и много приходиться бороться с черным SEO.
В российском интернете есть две крупные поисковые машины: Яндекс и Google. Они используют разные алгоритмы, но в большинстве моментов факторы, по которым они оценивается сайт совпадают. Например, обе поисковых машины учитывают следующее
1) качество, возраст и уникальность контента;
2) наличие ключевых слов на странице;
3) наличие и количество бэклинков (входящих ссылок), а также качество доноров этих ссылок;
4) поведенческие факторы пользователей;
5) структура сайта;
6) внутренняя оптимизация сайта.
Я назвал только самые важные моменты. Вы можете прочитать про факторы ранжирования в Яндексе, которых я набрал более 100 штук, чтобы лучше понимать особенности поисковых алгоритмов.
Поскольку интернет непрерывно изменяется, то регулярно должна изменяться и поисковая выдача. Поэтому регулярно происходят апдейты - обновления всех показателей.
Поисковые алгоритмы кардинально меняются довольно редко: примерно раз в квартал. Это довольно часто, поскольку ещё в 2007-2012 годах они менялись лишь 1 раз в год.
Читайте также:
• Как составить семантическое ядро
• Понятие SEO
• Какой бывает обмен ссылками
• Как сделать перелинковку на сайте
• Что такое индекс
← Перейти в оглавление seo словаря
|