25

Wycofywanie działań ręcznych – krok po kroku

W związku z coraz większą liczbą powiadomień o nienaturalnych linkach postanowiliśmy zebrać w jednym miejscu nasze doświadczenia związane z wycofywaniem działań ręcznych.

Opiszę tutaj stosowaną przez nas procedurę, która sprawdziła się w przypadku wielu serwisów, w tym dużych witryn e-commerce.

(Analogiczną procedurę – oczywiście bez ostatniego kroku – stosujemy dla przejmowanych stron bez działań ręcznych, aby zabezpieczyć się przed ew. filtrami algorytmicznymi i ręcznymi w przyszłości).

W zdecydowanej większości przypadków zgłaszane pliki disavow.txt zawierają tylko wpisy obejmujące całe domeny, więc w poniższej procedurze zakładam właśnie takie rozwiązanie.

Jeśli mają Państwo problem ze zdjęciem filtra, zachęcamy do skorzystania z naszej pomocy. Gdy wypełnią Państwo poniższy formularz, nasz specjalista skontaktuje się z Państwem maksymalnie w ciągu 1 dnia roboczego.

1. Przygotowania

Zaczynamy od usunięcia linków (lub zastosowania atrybutu rel=”nofollow”) na stronach zapleczowych – nie chcemy kłuć w oczy pracownika SQT.

W przypadku serwisów na WordPressie polecam wtyczkę Follow/Nofollow Control. Po zainstalowaniu wtyczki wystarczy przejść na stronę Ustawienia -> Follow-Nofollow i wpisać zafiltrowaną domenę (najlepiej w dwóch wersjach: z przedrostkiem www. i bez niego) w polu Nofollow Domains.

Na koniec warto sprawdzić, czy zaplecze rzeczywiście nie zawiera linków DoFollow – polecam Screaming Frog SEO Spider. Wystarczy wpisać domenę zapleczową i sprawdzić w zakładce External, czy witryna nie zawiera linków do klienta (Screaming Frog domyślnie nie pokazuje w tej zakładce linków NoFollow):

Linki zewnętrzne z witryny Allegro.pl w Screaming Frogu

Linki zewnętrzne z witryny Allegro.pl w Screaming Frogu (to akurat nie jest nasze zaplecze)

Uwaga. Zdarzyło mi się, że negatywna odpowiedź na wniosek o ponowne rozpatrzenie wskazywała strony zapleczowe, które zawierały tylko linki NoFollow. Wniosek został wysłany bezpośrednio po zastosowaniu atrybutu NoFollow, więc zalecam wstrzymanie się z wnioskiem 1-2 dni od zmiany linków.

2. Tworzenie listy linków

W tym kroku przygotowuję dwa pliki – nazwijmy je disavowed-domains.txt i links.txt.

a) disavowed-domains.txt

Tu sprawa jest prosta – bierzemy poprzednio zgłoszony plik disavow.txt, wycinamy z niego tekst domain: i zapisujemy w osobnym pliku tekstowym.

b) links.txt

Linki zbieramy z trzech źródeł – Narzędzia dla webmasterów (GWT), Ahrefs i MajesticSEO. Wszystkie narzędzia umożliwiają pobieranie list linków w formie plików CSV. Pliki z Ahrefs i MajesticSEO wystarczy wrzucić do Excela lub OpenOffice Calc, aby wyodrębnić kolumny z adresami stron źródłowych (z linkami do klienta). Wszystkie linki wrzucam do jednego pliku tekstowego.

Uwaga. Pliki CSV generowane przez Ahrefs i MajesticSEO zawierają czasem znak NULL, który uniemożliwia prawidłowe skopiowanie danych do arkusza kalkulacyjnego. Znak można łatwo usunąć w programie Notepad2:

Replace Text -> Search String: \x00 -> Replace with: {zostawiamy puste pole} -> zaznaczamy pole wyboru Regular expression search -> klikamy przycisk Replace All.

Zbiorczą listę linków kopiuję do ScrapeBoksa. Ponieważ pobraliśmy linki z trzech źródeł, warto od razu użyć opcji Remove Duplicate URLs, aby wyeliminować powtórzenia.

Kolejny krok polega na odrzuceniu stron na domenach, które zostały zgłoszone w poprzedniej wersji pliku disavow.txt:

Import URL List -> Select the URL lists to compare on domain level -> wybieramy przygotowany wcześniej plik disavowed-domains.txt:

Usuwanie domen, które zostały już zgłoszone w poprzedniej wersji disavow.txt

Usuwanie domen, które zostały już zgłoszone w poprzedniej wersji disavow.txt

Możemy teraz skopiować linki ze ScrapeBoksa do pliku links.txt.

3. Filtrowanie linków

Następny etap filtrowania linków wymaga użycia narzędzia SEO-Odkurzacz. Na pierwszym ekranie wystarczy wkleić adresy z pliku links.txt:

Pierwszy ekran programu SEO-Odkurzacz

Pierwszy ekran programu SEO-Odkurzacz

Kolejny ekran zawiera wygenerowaną przez program listę potencjalnych domen z linkami site-wide. Zostawiam domyślne ustawienia i klikam Następny krok.

Teraz mamy właściwe ustawienia analizy – tu ograniczam się do wyłączenia opcji wymagających serwerów proxy. Nie korzystam z tych funkcji, ponieważ pewne rzeczy i tak wolę sprawdzić ręcznie:

Ustawienia analizy linków w programie SEO-Odkurzacz

Ustawienia analizy linków w programie SEO-Odkurzacz

Teraz, w zależności od liczby analizowanych linków, musimy się uzbroić w cierpliwość. Po zakończeniu analizy przechodzimy do zakładki Szczegóły i klikamy przycisk Zdefiniuj filtry:

Jak przejść do filtrów w programie SEO-Odkurzacz

Jak przejść do filtrów w programie SEO-Odkurzacz

W oknie Zdefiniuj filtry zmieniam tylko dwa ustawienia: Jest link i dofollow (nie interesują nas linki, które nie istnieją, ani linki NoFollow):

Definiowanie filtrów w programie SEO-Odkurzacz

Definiowanie filtrów w programie SEO-Odkurzacz

Uwaga. SEO-Odkurzacz błędnie interpretuje linki z atrybutem rel=”nofollow external” jako DoFollow (zapewne program szuka w kodzie HTML łańcucha rel=”nofollow”). Problem nie jest jednak poważny – lepiej mieć trochę więcej linków do analizy niż coś przeoczyć.

Uwaga, aby zastosować filtry, należy jeszcze zaznaczyć pole wyboru Filtruj i kliknąć przycisk Pokaż:

Włączanie filtrów w programie SEO-Odkurzacz

Włączanie filtrów w programie SEO-Odkurzacz

Dalszą analizę prowadzę ręcznie w Excelu, zatem ostatnim krokiem w programie SEO-Odkurzacz jest wyeksportowanie raportu. W tym celu przechodzą do zakładki Raporty, zaznaczam pole wyboru Spełniające kryteria filtrów i klikam przycisk Wszystkie linki z parametrami:

Eksport linków z programu SEO-Odkurzacz

Eksport linków z programu SEO-Odkurzacz

4. Analiza ręczna

Ten krok wymaga tylko Excela i przeglądarki. Zaczynam od uporządkowania kolumn w arkuszu wyeksportowanym z SEO-Odkurzacza i dodania kolumny DISAVOW:

Arkusz wyeksportowany z SEO-Odkurzacza po uporządkowaniu kolumn

Arkusz wyeksportowany z SEO-Odkurzacza po uporządkowaniu kolumn

Oprócz kolumn Lokalizacja linku i Anchor dużym ułatwieniem są dane w kolumnie Surrounding, czyli informacje o znacznikach otaczających linki (wraz z liczbą znaków otaczających te linki).

Zaczynam od oznaczenia jako nieszkodliwe stron, które:

  • zawierają tylko gołe URL-e (oznaczone w arkuszu jako ADRES);
  • zawierają tylko linki z anchorami brandowymi (ale bez pozycjonujących dopisków, w stylu {brand} {anchor} lub {anchor} {brand});
  • zawierają tylko linki z nieszkodliwymi anchorami (klik, tutaj itp.);
  • zawierają tylko linki z obrazów;
  • należą do dobrych katalogów;
  • należą do mojego zaplecza (skoro coś zostało, to muszę wrócić do punktu 1.).

Zostają mi więc strony zawierające linki ze słowami kluczowymi w anchorach. Wybór stron do disavow.txt jest oczywiście dość subiektywny. Z reguły oznaczam jako szkodliwe strony:

  • z linkami w stopce lub panelu bocznym (często zdarzają się pozostałości po stosowanych w przeszłości stałych SWL-ach);
  • z publicznych precli (najczęściej pozostałość po automatach, np. Publikerze, kłują w oczy i bardzo często są wskazywane w negatywnych odpowiedziach na wnioski o ponowne rozpatrzenie);
  • z katalogów z linkami w treści;
  • ze stron z niskim site (np. katalogów, które na kilka tys. wpisów mają 200 stron w indeksie) i PageRank (N/A i 0);
  • ze stron z podpiętym SWL-em (stopka, panel boczny);
  • z katalogów ze słabą grafiką (np. katalogów z domyślnymi skórkami);
  • ze stron zawierających spam (treść ze spinów, linki kasynowe, pokerowe, XXX itp.).

5. Plik disavow.txt

Adresy URL oznaczone w arkuszu jako szkodliwe kopiuję do ScrapeBoksa. Klikam kolejno przyciski Trim to Root (aby otrzymać same domeny) oraz Remove Duplicate URLs (aby wyeliminować powtórzenia domen).

Tak przetworzone adresy kopiuję do pliku disavow.txt (jeśli był zgłaszany plik disavow.txt, doklejam nowe adresy na koniec poprzedniego pliku). Teraz pozostaje już tylko wstawienie przedrostka domain: – wystarczy kilka operacji zastępowania tekstu:

  • https://www. -> domain:
  • https:// -> domain:
  • http://www. -> domain:
  • http:// -> domain:

W pliku disavow.txt można oczywiście umieścić komentarze (poprzedzone znakiem #), ale należy je traktować wyłącznie jako informacje dla nas samych, np. jako oznaczenia sekcji dodanych w kolejnych wersjach. Nikt tego nie czyta, zatem nie ma sensu w pliku disavow.txt umieszczać wyjaśnień dla pracowników SQT.

6. Wniosek o ponowne rozpatrzenie (RR)

Zawartość zgłoszonego pliku disavow.txt trzeba skopiować od dokumentu na dysku Google. Dokument należy udostępnić, zaznaczając opcję Każdy użytkownik mający link w oknie Ustawienia udostępniania. Dzięki temu pracownik SQT będzie mógł sprawdzić zawartość wysłanego pliku.

W samym wniosku o ponowne rozpatrzenie nie ma sensu się rozpisywać o tym, jacy jesteśmy etyczni, jak bardzo winę za obecną sytuację ponosi poprzednia agencja itp. Wystarczy krótka informacja o usunięciu szkodliwych linków i zgłoszeniu pozostałych w Disavow Tool. We wniosku koniecznie należy umieścić link do dokumentu z kopią pliku disavow.txt.

Jeszcze jedna uwaga – usunięcie/zgłoszenie w Disavow Tool wszystkich naprawdę szkodliwych linków (z precli, SWL-i itp.) zwykle powoduje, że SQT przymyka oko na pozostałe linki:

  • Jeśli zostawimy część szkodliwych linków, w odpowiedzi otrzymamy zarówno przykłady tych stron, jak i 1-2 przykłady stron, które w normalnych okolicznościach przeszłyby weryfikację (chodzi przede wszystkim o dobre katalogi i linki od blogerów).
  • Jeśli zgłosimy wszystkie linki słabej jakości, najprawdopodobniej pracownik SQT nie uczepi się lepszych linków.

Uwaga. Zdarza się, że w Narzędziach dla webmasterów nie pojawia się wiadomość potwierdzająca wysłanie wniosku. W takim przypadku nie warto czekać – lepszym rozwiązaniem jest ponowne wysłanie wniosku. Podobnie, jeśli czas oczekiwania na odpowiedź przekracza miesiąc, należy ponownie wysłać wniosek.

7. Skuteczność

Na odpowiedź na pierwszy wniosek o ponowne rozpatrzenie zwykle trzeba poczekać od 4 do 7 dni. Odpowiedź na kolejne wnioski przychodzi po 2-3 tygodniach.

Skuteczność (rozumiana jako akceptacja pierwszego wniosku) wynosi ok. 75%. Drugi wniosek jest akceptowany w ok. 90% przypadków. Skuteczność trzeciego wniosku jest bliska 100%.

Skuteczność opisanej metody byłaby 100-procentowa, gdyby nie dwa problemy:

  1. Brak pełnych danych o linkach przychodzących (dostępnych GWT, Ahrefs i MajesticSEO). O ile Google świadomie nie udostępnia wszystkich znalezionych linków (w Narzędziach dla webmasterów), o tyle serwery Ahrefsa i MajesticSEO siłą rzeczy nie mają takich możliwości jak serwery Google, zatem ich roboty nie odwiedzają wszystkich stron, które są odwiedzane przez roboty Google.
  2. Czasowe błędy na stronach zawierających linki niskiej jakości. W programie Odkurzacz-SEO stosujemy filtry, które ograniczają zbiór stron do tych, które zawierają linki DoFollow. Skoro strona nie działa, nie trafia do dalszej analizy i – tym samym – nie jest uwzględniana w pliku disavow.txt.

Wszystkie negatywne odpowiedzi na wnioski o ponowne rozpatrzenie zawierały informacje o stronach, które przeoczyliśmy właśnie z tych powodów. Co ważne, nie ma potrzeby umieszczania w nowej wersji pliku disavow.txt wszystkich linków wskazanych w odpowiedzi na poprzedni wniosek. Jak wcześniej wspomniałem, dość często Google wskazuje (obok rzeczywiście szkodliwych linków) strony, których wcale nie musimy się zrzekać.

Dziękuję za uwagę :)

Shares 0
Mikołaj Szczepaniak
 

Click Here to Leave a Comment Below 25 comments
Mariusz - 09/02/2014

Zamiast Scrapeboxa można użyć darmowego GScrapera do filtrowania list.

Reply
Zgred - 09/02/2014

To nie jest tak, że szkodliwe czy nieszkodliwe to jest to co napisałeś: ocena jest czysto subiektywna i wynika z tak zwanego „czuja”. Oczywiście po kilku miesiącach grzebania w bagnie wiesz od razu co niby jest złe.

Same URLe tez potrafią byc szkodliwe :)))) Kwestia gdzie zostały umiejscowione i jak…

Reply
    Mikołaj Szczepaniak - 09/02/2014

    Zgoda. W pierwszym podejściu do RR zawsze pomijam gołe URL-e, ale jeśli w odpowiedzi na RR Google mi wskaże takie linki, to oczywiście trzeba im się przyjrzeć.

    Reply
Dariusz Jurek - 09/02/2014

Art spoko, rzeczowy dla bardziej wymagajacych polecam do budowy pliku dis Link Detox. Bez podawanie linkow do docs tez normalnie przechodza bez problemu, co wiecej w 3 rozpatrzeniu jak macie prawie 100 % to pogratulowac wyniku. Ja uwazam ze warto czasem odczekac 6-7 dni miedzy RR aby zdjete linki sie mogly przeindeksowac ew przepingowac je bo szkoda marnowac szansy rozpatrzenia.

Reply
Bartek - 09/02/2014

Ja mam troszkę inną sytuację. Po zgłoszeniu pliku disavow i wysłaniu RR dostałem odmowną odpowiedź, w której wspomniano, że moja witryna nie spełnia warunków jakościowych Google. Natomiast w zakładce „Działania ręczne” w GWT nadal tkwi informacja o nienaturalnych linkach… Która informacja jest ważniejsza? Szukałem informacji na ten temat i znalazłem takie, z których wynika, że jednak informacja o nienaturalnych linkach jest tą istotniejszą… ale czy tak jest naprawdę… Może jest tak, że pracownik SQT nie dość, że znalazł jeszcze jakieś linki, które mogłem przeoczyć w pliku disavow, a dodatkowo coś nie spodobało mu się w samej witrynie?

Reply
think - 10/02/2014

czy da się podobną analizę wykonać bez narzędzia SEO Odkurzacz ?

Reply
    Łukasz Rysiak - 10/02/2014

    Analizę można również wykonać za pomocą http://sitecondition.com/ (pozdrawiamy Radka :>), albo po prostu ręcznie analizując dane zawarte w eksportach MajesticSEO czy Ahrefs, o czym jest punkt piąty powyższego tekstu, ale jest to bardzo żmudne, stąd wydanie kilkudziesięciu pln na to narzędzie, jest wg nas dobrym wyjściem.

    Reply
    Łukasz Rogala - 17/02/2014

    Owszem, ale SEO Odkurzacz nie rozwiązuje niczego za Ciebie i mimo wszystko jakąś wyselekcjonowaną próbkę warto przejrzeć ręcznie.

    Reply
Michał Barełkowski - 13/02/2014

Ja robię podobną analizę bez SEO Odkurzacza, korzystając m.in z funkcji check links w scrapeboxie.

Reply
Eryk - 13/02/2014

u mnie wysyłane rozpatrzenie po 4-5 raz przy niektórych domenach i nadal Googlowi się nie podoba ;) Do tego na odp trzeba czekać po kilka tygodni….chyba szybciej zmieni się domenę i zacznie od nowa :-/

Reply
tebim - 13/02/2014

Wpis jak najbardziej wartościowy i ciekawy. Ze swojej strony dodam, że równie dobrze do powyższych zdań nadaje się sitecondition, z ktorego osobiscie korzystam.

Reply
Tebim - 13/02/2014

Mam jeszcze pytanie…

„Import URL List -> Select the URL lists to compare on domain level -> wybieramy przygotowany wcześniej plik disavowed-domains.txt:”

Czy po załadowaniu wcześniejszej wersji Disavow, Scrapebox wykluczy całe adresy URL, pomimo że Disavowo zawierało tylko domeny?

Reply
    Mikołaj Szczepaniak - 13/02/2014

    Tak, ScrapeBox porówna obie listy (na poziomie domen) i usunie z bieżącej listy domeny, które występują na drugiej liście (z poprzedniego disavow).

    Reply
Rafał - 15/02/2014

Uważam, że niekoniecznie trzeba udostępniać pliku w Google Docs z linkami zgłoszonymi do disavow żeby otrzymać pozytywną odpowiedź. Czy przypadkiem nie jest tak że SQT ma dostęp do naszych linków zgłoszonych w disavow tool ?

Reply
    Łukasz Rogala - 17/02/2014

    Tego nie wie nikt. Czasami jednak ma się wrażenie, że osoba odbierająca prośbę o ponowne rozpatrzenie nie sprawdza co jest w disavow, więc najlepiej link załączać.

    Reply
tymoteuz - 27/02/2014

Wszystko można ręcznie zrobić i nie zajmuje wiele czasu, każdy program to tylko program. Ręczne czyszczenie linków daje wiele dobrego (gdzie popełniałem błędy i co zmieniło się w pozycjonowaniu).

Reply
Sebastian Miśniakiewicz - 02/03/2014

Moim zdaniem już teraz SEO odkurzacz „bije” na głowę SiteCondition, a niedługo, jak wejdzie kolejna wersja, i Link Detoxa – wiem, co piszę :)

Reply
Damian - 08/03/2014

Bardzo fajny tutek – sporo o odkurzaczu jest napisane ale praktycznie same ogólniki. Tutaj jest pokazane jak się go używa i za to pokłony :) Swoją drogą to w Link Detox ostro z ceną pojechali, a Odkurzacz w drugą stronę, czyli dają darmo ;)

Reply
    Sebastian Miśniakiewicz - 14/03/2014

    @Damian – mogę powiedzieć, że Seo Odkurzacz będzie wyposażony w dodatkowe funkcje, które sprawią, że używanie LInk Detoxa będzie mijało się z celem. Szczegóły już niedługo :)

    Reply
Michał - 15/09/2014

Dzięki za porady, właśnie jestem po drugim zgłoszeniu ponownego rozpatrzenia. Mam nadzieję, że tym razem się uda z wykorzystaniem wyłączenie danych z Narzędzi Webmasterów.

Reply
baggio - 08/01/2015

mam pytanko, czy w seo odkurzaczu w pierwszym etapie wkleja Pan domeny główne tak jak jest w tutku czy podstrony prowadzące bezpośrednio do linku.
Pytam gdyż jak wkleję domeny główne to odkurzacz mi nie znajduje linków..

Reply
poligrafer - 04/02/2015

czy po otrzymaniu komunikatu z GWT, iż filtr ręczny zostanie zdjęty długo czeka się na poprawę wyników? i druga sprawa, komunikat dostałem, jednak w GWT ciągle mam komunikat o filtrze ręcznym, czy to znaczy,że mam czekać czy dalej jest coś nie tak?

Reply
baggio - 17/03/2015

Czy mi się wydaje, czy tekst uległ zmianie, dawniej zgłaszaliśmy do disavow chyba tylko wcześniej nie zgłaszane linki a teraz z tekstu wnioskuje, ze nowe linki doklejam do starych i zgłaszamy wszystko?

Reply
    Grzesiek - 19/03/2015

    Wydaje mi się że trzeba wrzucać wszystko, chociaż nikt nie wie jak to działa.

    Reply

Leave a Reply:

0 Shares