Яндекс. Поіск офіційно повідомив про початок боротьби з переоптимізованими текстами на сайтах, призначеними для підвищення релевантності і впливу на пошукову систему.

Як відомо, пошук Яндекса віддає перевагу сайтам, які створені для людей і зручні користувачам. Пошуковик неодноразово висловлював своє негативне ставлення до спроб підвищення релевантності сторінок за рахунок надмірного вживання в текстах ключових слів. Тепер, щодо переоптімізірованних текстів, які відносяться до прийомів «псевдооптімізаціі» будуть прийняті найсуворіші заходи.

На наступному тижні почне роботу новий пошуковий алгоритм, що впливає на ранжирування сторінок, що містять надмірно оптимізовані тексти. Цей алгоритм буде аналізувати контент на проіндексованих сторінках і оцінювати, чи є він корисним і зручним з точки зору відвідувача сайту. Якщо алгоритм визначить, що контент створений для впливу на пошукову систему, то позиції цього документа у видачі значно знизяться, і відновляться лише після усунення проблеми і подальшої переіндексації.

У зв‘язку з прийдешнім запуском нового алгоритму, команда Яндекс. Пошуку рекомендує всім веб-майстрам заздалегідь переглянути свій контент, відштовхуючись від інтересів і зручності відвідувачів.

Олег Сахно (ІнтерЛабс): «Ось ми і отримали пояснення тому, що відбувалося з видачею в суботу. Зміни були одні із самих значних за останні 3 місяці. Найімовірніше, була перша ітерація впровадження цього алгоритму.

У заяві Яндекса про плани впровадження алгоритму є один момент, який викликає сумніви. Мова про наступній фразі »... коли проблема буде усунена, а сторінка сайту переіндексувати, позиції сайту відновляться«. Виходить, що санкції будуть накладатися на весь сайт за якусь кількість сторінок, позначених «спамние»? Якщо ж санкції будуть накладатися на конкретні сторінки, то, проаналізувавши динаміку позицій для конкретних сторінок сайту, можна швидко визначити ознаки переспамлених сторінок.

Думаю, можуть постраждати ті, хто користувалися рекомендаціями автоматизованих сервісів. Рекомендації будувалися на основі того, що є в топ10, часто там були переспамленние сайти. Якщо рекомендації були виконані, сайт може постраждати«.

Сергій Кокшаров (Devaka.ru): «Співробітники Яндекс. Пошуку згадали, що алгоритм буде аналізувати сторінки на корисність контенту та зручність сайту для відвідувачів. Мабуть, це буде стосуватися не тільки спаму, напевно буде проводитися аналіз тексту на граматичні помилки, зворотний зв’язок від читачів (коментарі, перепис), аналіз структури сайту і наявності явних елементів, що характеризують неякісний ресурс (реклама в тексті, приховані елементи навігації, і інше ), поведенческіе фактори у вигляді, скажімо, показника відмов.

Все це, звичайно, враховувалося і раніше, але зараз цим буде займатися, видимо, окремий бот (разом з групою асесором). Якими будуть результати — побачимо через тиждень».

Андрій Іванов (Neiron): «Коли я читаю нові повідомлення групи пролетарського гніву Яндекса про чергове ворога народу, якого треба втоптати (погані теги, погані посилання, погані сайти, погана реклама, тепер ось погані тексти), згадую одну задачку. Які шанси піймати 10 карасів поспіль, якщо 90% всієї риби в ставку — карасі?Імовірність, що одна спіймана риба виявиться карасем = 0,9. Що дві спіймані поспіль риби будуть карасями — 0,9 * 0,9 = 0,81. Десять карасів поспіль — це 0,9 в 10 ступені, або 0,35, тобто вірогідність наявності «Некар» в Тор10 такого лову дуже велика — 0,65.

Кожне посилання в Тор10 пошуку повинне пройти ряд фільтрів. Немає жодного фільтру, який працює без помилок. Чим більше обмежуючих факторів — тим вище ймовірність, що разом з водою вихлюпнули і дитину, запессімізіруют по-справжньому хороший сайт. Текстів це стосується в першу чергу. Тому я не впевнений, що новий алгоритм поліпшить результати пошуку, адже російська мова складається не тільки з «коротких, але інформативних текстів, які краще сприймаються користувачем».

Джерело: vidomosti