Вычисление реального веса ссылки

Автор: Довбня Сергей Вторник, 25 октября 2021 07:15

Весы на картинке символизируют алгоритм по которому сейчас поисковые системы оценивают вес ссылки. Это понимают и сами оптимизаторы и те кто создает поисковые алгоритмы.

Вы тут ждали формулу, алгоритм “как попасть в топ”? Этого не будет, заглянем в будущее. Давайте глянем как должно быть.


Если что – у меня копирайт и авторский гонорар от поисковых систем мне нужен, за газ заплатить нечем (из Украины я).

Изначально ссылки были рекомендацией автора посетить ресурс. Именно поэтому чем больше рекомендаций получила страница тем больший вес имела страница. Это было правильно пока не появились умники.

Ссылки начали ставить за деньги. Поисковые системы ответили рейтингами, весом ссылок, трастом. Нелепо это. Был неравный бой, он никем на дату публикации не выигран. Стало только хуже.

А вот вам простой и вместе с тем ресурсоемкий алгоритм как все расставить все на свои места и вернуть ссылкам изначальный смысл. Ведь их не могут отменить, они по прежнему важны, если бы ОНИ могли – исключили бы их из факторов ранжирования. Сейчас разбавляют социальными факторами и прочей мутью.

В итоге получается так что “правильные” ссылки-рекомендации скрывают через редиректы и nofollow, а ссылки для накруток реально работают.

Ну, к делу.

Ссылка – рекомендация. Если автор искренне рекомендует посетить ресурс то посетители реально идут по ссылке и посещают ресурс.

У Яндекса и гугла есть статистика по переходам по ссылкам, есть процент переходов. Что мешает учесть это, кроме лени и вычислительной мощности?

По продажным ссылкам практически не кликают. Они висят себе уныло в сайдбаре, футере или постовом и никому не интересны, но алгоритмы поисковой системы на них реагируют.

Естественные ссылки висят на форумах и в блогах, но через редиректы и nofollow, людям они полезны, по ним ходят, но они не учитываются в ранжировании. Хотя они являются искренними и поставлены для людей.

Ведь если я ссылаюсь на ресурс и ставлю честную ссылку, значит для людей, значит по ней должны переходить посетители, я для этого и ставлю ссылку. Скрываю редиректом чтобы не терять на продаже ссылок или из-за паранойи, но ссылка для людей, я ее искренне ставлю.

Берем статистику по переходам по ссылкам игнорируя редиректы и, в зависимости от числа переходов, считаем вес. Но тут много багов, решаемых, но багов.

Ссылки с мало-посещаемых ресурсов. Они передают малый вес, но передавать должны. А вот ключевой должна быть не посещаемость, а соотношение просмотров/кликов. Чем оно лучше тем весомее ссылка. Ну и медиана от общего числа посетителей, иначе получится что ссылка с соотношением 1 с ресурса общей посещаемостью 2 хоста в сутки будет весомее ссылки с соотношением 0.9 поставленная на странице с посещаемостью 100к.

Второй баг – продажные ссылки. А баг ли это? Если ссылка стоит и она интересна посетителям значит не баг, а она реально интересна. И поставлена не в футере (значит не для людей), никому не заметно, а стоит так чтобы все видели и переходили. Это реклама! А нам могут ее запретить? Веб-мастера живут на рекламе. Это даже заставит рекламодателей искать более выгодные/дорогие рекламные места, а не “уголочек для ссылки”. Они получат и реальных посетителей и совершенно легально продвинутся в поисковых системах.

Ой блин, это же накрутки? Нет, если сделать коррекцию показателем временем просмотра страницы рекламодателя и показателем отказов. Получили переходы для накрутки но не удержали – а вот вам минус по позициям, это унылый ресурс который хотел повысить позиции в выдаче. Это реально приведет выдачу в норму и будет отсеивать тех кто пытается накрутить.

Еще можно ввести отрицательный фактор в виде штрафа для ресурсов которые ставят неискренние ссылки. Это любят почему-то в поисковых системах, поэтому скажу. Исходим из факта что по ссылкам которые поставлены в целях оптимизации не ходят посетители (накрутка, или внутренняя переоптимизация, не важно). Значит рассчитываем веса ссылок не только внешних но и внутренних, опять-же с учетом погрешностей. Штрафуем за много ссылок и мало кликов. Зачем так много ссылок если они реально не нужны посетителям?

Тут решаем еще одну проблему. У новых ресурсов, какими бы хорошими они не были, проблема попасть в топ. Они могут быть интересны посетителям, но внешних ссылок нет, да и не должно быть, откуда им взяться у новых ресурсов? Покупать? А тут есть соотношение просмотры/клики/заинтересованность. Показали в топе на сутки-двое, не интересно – в клоаку, это плохой ресурс.

Скорость отсеивания зависит от скорости обработки данных. Поэтому я и говорю что сейчас будет сложно, и так ворочают терабайты информации и учитывают множество факторов. Гугл хоть в реалтайме, ну примерно, это делает…

Но это того стоит. Не просто вставлять костыли в устаревшую теорию ссылочного ранжирования и устаревших алгоритмов, а построить новый алгоритм. Он решить все проблемы:

  • Проблема накрутки. Тут понятно, нет смысла накручивать показы на бесполезный и не интересный посетителям ресурс.
  • Проблема продажи ссылок, бирж ссылок и оптимизаторов. Ведь предложенный мной алгоритм учитывает даже продажные ссылки, ссылки из рекламных объявлений, значит профит. Начнут продавать не ссылки а рекламу, как и должно быть. Начнет рулить Адсенс и Директ.Яндекс. Оптимизаторы переквалифицируются и наконец-то начнут продавать настоящую рекламу стремясь к максимуму эффективности в плане кликов и привлечения посетителей. Школота с гавносайтами на копипасте и “услугами по оптимизации” пойдет наконец в школу, выучится и станут они полноценными специалистами. Проблему всплывающих окон решаем штрафом за всплывающие окна, нет ничего сложного. С инфреймами та же фигня.
  • Пользователи будут видеть выдачу которая им интересна. Если совсем уж серверов много то учитывайте факторы по типам запросов: информационный, купить, отзывы и т.д. Так будет ресурсоемко зато выдача будет более релевантна.
  • Уйдут дилетанты. Они сейчас действуют по алгоритмам тупым, например: купил домен, скопипастил статей, продал ссылки – профит. С этим алгоритмом подобный мусор не имеет смысла. Он быстро вылетит из выдачи, он не интересен рекламодателям, а это главное. Не будет смысла покупать ссылки на гавносайтах. У нормлаьных веб-мастеров появится стимул делать нормальные сайты, для людей, интересные.
  • Рекламодателям станет легче. MFA как-бы уже не рулят. Иначе алгоритмы накажут либо рекламодателя, либо того кто продает “плохую” рекламу.

Утопия в чистом виде.

Как я вижу себе внедрение:

- Решить проблему с авторством контента. Иначе это привлечет копипастеров которые найдут лазейки. Это сложный и непосильный алгоритм. но нифига он не непосильный, просто поисковым системам давно наплевать, только в последнее время появились первые “попытки”.

- Алгоритм просчитывать и в ручном режиме корректировать, исправляя баги и выявляя слабые места. Но не допускать влияния на реальный поиск.

- Постепенно повышать влияние на выдачу в виде коэффициента, отрицательного или положительного. Лучше на тестовой выдаче.

- Убрать нафиг влияние старого метода ссылочного ранжирования и ранжировать выдачу на новом алгоритме с учетом социальных и пользовательских факторов.

Это утопия, я знаю. Текущие алгоритмы приносят профит а новые требуют нереальных усилий и вложений. Но также знают все что сейчас поисковые системы в тупике. Социальные факторы, траст и прочая шняга выглядят как костыли в старый алгоритм, придуманный много лет назад и морально устаревший.

Уверен что я не учел еще много багов, но это просто проект требующий серьезной доработки и тестирования.

Ставлю на гугл, который точно мне платить не будет (и даже потерянный чек за август не вернет, отпишусь как выясню). Тем не менее именно гугл быстрее как-то реагирует.

Багрепорты в комментах?




Написать комментарий


f32d23ec