Aktualizacja Pingwin 2.1

Aktualizacja Google PingwinOstatnio sporo się dzieje w wynikach wyszukiwania, i można odnieść wrażenie, że Google pręży muskuły. Ledwo udało się nam przyzwyczaić do algorytmu Kolibra, jak wczoraj wkroczył odnowiony Pingwin.  Po wielu dyskusjach i analizach udało się wysnuć kilka najistotniejszych wniosków, jakie czynniki wyłapuje nowy Pingwin najsprawniej?

Pingwin został wprowadzony prawie półtora roku temu, w kwietniu 2012. Jego główne założenia to wykrywanie przeoptymalizowanych stron pod kątem słów kluczowych (keywords stuffing) a także nienaturalnych linków. 4 października miała miejsce kolejna już aktualizacja algorytmu, Pingwin 2.1, która dotknęła ok 1% wyników wyszukiwania.

Podsumowując większość wniosków, które przewijają się w dyskusjach SEOwców:

  • poleciały strony firmowe, o niedużej ilości contentu (większe zagęszczenie słów kluczowych przez małą ilość treści),
  • wzrosły większe strony, bogate w content i ilość podstron,
  • poleciały linkowane marnej jakości stronami (masowe katalogi, precle),
  • jak zauważył również Jarek – zauważyć można nie tylko kompletne usuwanie z wyników, ale obniżanie pozycji – co sugerować może algorytmiczne wykluczanie pewnych linków na etapie rankingowym,
  • monitorując jedną ze stron obsługiwaną przez innego pozycjonera – zauważyć można wylot z wyników strony wbijanej przekierowaniami na 301

spadek_301

 

Plusy zanotowały także strony nieruszane, do których nie podejmowano szczególnie większych działań SEO a jedynie drobną optymalizację, analitykę oraz monitoring – może zatem czas na oferowanie nowej usługi – którą osobiście nazywam Non-SEO?

Wypowiedz1-panda21

wypowiedz2_pingwin21

Jak zauważył również Paweł Richter, na grupie seowcówlepiej przy aktualizacjach mają się podmioty realizujące kilka większych zleceń, niż mające setki mniejszych. Na pewno ma to wpływ na jakość podejmowanych działań, przy większej ilości klientów – wiadomo, że duża część działań jest automatyzowana i robiona masowo.

Ostatnie aktualizacja Google

Google ostro wziął się ostatnio do roboty – na 15 urodziny firmy ogłosił aktualizację algorytmu. Wszystko za sprawą Google Kolibra wprowadzonego do polskich wyników wyszukiwania 9 września – który nie tak dawno mocno przetasował SERP’y. Dla osób zainteresowanych  tym jak Koliber wpłynie na wyniki wyszukiwania, polecam artykuł zbierający prognozy specjalistów z branży SEO nt Google Hummingbird.

Na dzień dzisiejszy mamy aktualizację Pingwina, która skupia się na jakości linkowania. Jaki będzie następny krok Google?

Chcesz być na bieżąco?

Zapisz się do newslettera - najświeższe informacje, porady oraz artykuły dzięki którym zwiększysz swoje pozycje w wyszukiwarce!


52 thoughts on “Aktualizacja Pingwin 2.1

  1. Witam,
    kolego piszesz o wczorajszej Pandzie „wczoraj wkroczyła odnowiona Panda” a za chwilę mowa o „4 października miała miejsce kolejna już aktualizacja algorytmu, Pingwin” – w końcu ja już nie mam pewności, jaki właściwie algorytm-aktualizacja nastąpiła. 🙂 Pozdrawiam

    1. Faktycznie, zamotałem nazwami, już poprawione. Tworząc grafikę do wpisu również najpierw stworzyłem Pande, więc widać jak zmasowane aktualizacje mącą w głowie.
      Dzięki 🙂

  2. Bardzo fajne zestawienie Sebastianie. Prowadzonych przeze mnie kilkanaście stron firmowych potwierdza Twoje wnioski. Monitoruję w sumie prawie 1000 fraz. Strony, które oberwały przy pierwszym pingwinie, a które były od tamtej pory linkowane bardzo przemyślanie i 100% czysto + optymalizacja, zaliczają piękne wzrosty. Zobaczymy co będzie dalej :).

  3. „poleciały strony firmowe, o niedużej ilości contentu”
    Ja zajmuję się tylko 1 taką stroną z bardzo ubogą treścią, ale ona od 3 dni pnie się w wynikach. Jeśli chodzi o jej linkowanie, ostatnio wpadło trochę linków z zaplecza, giełdy linków, wcześniej fora i serwisy Q&A, sporo katalogów stron, firm i sklepów. Na minus jest to, że anchory są mało zróżnicowane, chociaż jest sporo brandowych, więc na pewno o to muszę bardziej zadbać.

    Poza tym, odpuściły filtry algorytmiczne dla 2 stron. Na reszcie albo brak zmian (głównie tam, gdzie nic nie było od dawna robione), albo więcej wzrostów niż na co dzień przed aktualizacją. Ta druga grupa to strony mające dość zróżnicowane źródła linków.

    1. „Może zaważył tu profil linków brandowych, które mają status bardziej naturalnych?”
      Być może, chociaż przy tej stronie miałam pewne obawy o przesadzanie z keywordami.

  4. Napiszę odnośnie powrotów stron z dalekich pozycji – nie jest to normalne bo skoro nie zmieniło się nic na stronie, nic w kwestii linkowania i nic w wielu innych kwestiach – to dlaczego winduje się jedne strony w górę a inne zjeżdżają na maksa ?

    1. Przewrotnie powiem, Google pewnie też nie wie 😉
      Tak serio mogła w ramach aktualizacji również nastąpić zmiana „wagi” poszczególnych czynników.

      Przykładowo, mamy uproszczony model – 2 czynnikowy, w ocenie 0-10.
      Przed zmianą:
      – Czynnik A1; waga 0,5; ocena: 8. Realnie daje to 4 pkt.
      Po zmiani:
      -Czynnik A2; waga 0,1; ocena: 8. Raalnie daje to 0,8 pkt.

      Zmiana wagi czynników, może spowodować zamianę stron na zupełnie inne miejsca rankingu – gdyż do teraz mogł się liczyć keyword w title, a teraz został np. zdewaluowany – przez co strona która miała więcej punktów z tego tytułu – traci.

  5. Dla mnie te zmiany są mało zrozumiałe. Nie wiem czym tym razem Google kieruje się przy rankingowaniu stron, bo moja strona jest stopniowo pozycjonowana (katalogi, bez precli) oraz linki z forum i innych stron, zoptymalizowana, do 4 października wszystkie pozycjonowane frazy były na 1 stronie w czołówce, ale od piątku wszystko poleciało w dół o 2-3, a nawet 4 strony.

    O co tym razem chodzi i czy to są zmiany na stałe?

    1. W ciągu jednego dnia spadły mi wszystkie frazy o kilka stron w dół. To chyba nie jest naturalne wyprzedzanie w rankingu?

  6. Zobacz, które ze wspominanych aspektów mogą dotyczyć Ciebie i Twojej strony. Wspomniałeś o katalogach – może w nich problem? Czasami może ich być niewiele – jednak zakładając wyeliminowanie tych linków przy ich uwzględnianiu, może dawać Ci mniejszą siłę przebicia w wynikach.

    Zobacz też, korzystając z ahrefs.com jak rozkłada się treść poszczególnych anchore tekstów w linkach przychodzących. Nie wiem czy chodzi Ci dokładnie o stronę, którą masz podlinkowaną aktualnie z imienia i nazwiska – sprawdziłem ją tym narzędziem, i jak widzisz zresztą też, masz bardzo duży nacisk na kilka anchorów:
    marketing sieciowy (29%) pomysł na własny biznes (27%) biznes mlm (24%) tobiasz (12%) tobiasz duda (12%).

    1/3 anchorów to marketing sieciowy, trudno uznać to za coś naturalnego 😉

    1. Nie, tutaj chodzi o zupełnie inną stronę.

      Ta strona, którą oceniłeś nie ma dla mnie aż tak wielkiego znaczenia, bo to strona „o mnie” i o tym czym się zajmuje na co dzień.

      Chodzi tutaj o stronę zwalcz-pasozyty.pl.
      A czy może być tak, że strona posiada zbyt małą ilość dobrych katalogów? Strona powstała jakiś czas temu, generalnie funkcjonuje od roku, pozycjonowana jest od 6-8 miesięcy. Ale w momencie jej budowania i dodawania treści strona automatycznie wychodziła na poszczególne dobre frazy w wyszukiwarce. Czasem frazy, które teraz znikły na dalsze pozycje bez żadnego pozycjonowania wyszły same na 1 stronę wyszukiwania, a teraz po wprowadzeniu algorytmu strona dostała po dupie.

    2. Patrzyłeś do ahrefs? Widać spore spadki ilości linkujących stron, do tego patrząc na profil sitewide-not-sitewide bardzo mocno to wzrosło. Google nie przepada za linkami w całej witrynie.

      Również zobacz na profil linków, czyli ich ogólny przekrój. 97% to linki dofollow, a zaledwie 3% to linki nofollow. Może to Google sugerować, że pozyskiwane są wyłącznie „istotne z punktu SEO” linki dofollowe.

      Polecam przyjrzeć się wstępnie informacjom z ahrefsa. 🙂

    3. Nie znam się jeszcze tak dobrze na SEO, dlatego być może trudniej jest mi wyczytać z tych statystyk coś konkretnego. Porównywałem moją stronę z inną, która w wynikach trzyma się cały czas na tych samych pozycjach i zauważyłem, że na tamtej stronie 99% linków jest dofollow, a 1% to linki nofollow. Więc chyba ten czynnik nie ma wpływu na spadek.

      Czy poprawienie zasugerowanych zmian przez Ciebie może pomóc stronie w powrocie na wcześniejsze frazy?

      ..Widać spore spadki ilości linkujących stron, do tego patrząc na profil sitewide-not-sitewide bardzo mocno to wzrosło. Google nie przepada za linkami w całej witrynie…

      Czy możesz mi wyjaśnić powyższe?

      Mówiąc o spadkach stron z których pozyskane mam linki dofollow masz na myśli ich wartość, ranking?

      To oznacza, że mam za dużo linków na swojej stronie?

    4. Wybacz, że krótko – ale cały dzień pracy, i późna godzina.

      Tak, może pomóc.
      Zobacz pierwszy, największy wykres u góry – Refrering Page. Jak można zobaczyć widać tam olbrzymi spadek stron referujących – kiedyś 10 000 – > 700 aktualnie.
      Choć nie jest to spadek z dnia na dzień, wyraźnie ilość spada – co Google mogło w końcu wziąć pod uwagę. Co innego, jak w miesiącu po prostu wyparowuje nawet duża ilość – a nuż zniknął serwis, forum czy duży projekt, no i trudno. Jednak jeśli dzieje się to regularnie, w dużym odstępie czasowym – coś może to już świadczyć.

      A dodatkowo, nałożył się na to mocny wzrost linków site-wide (obecnych w całym serwisie www, np. w menu bocznym, stopce). Wykres pod tym dużym, pomarańczowy na prawo. Kiedyś 8%, dziś zaś ponad połowa – 62%.
      Niezwykle trudno pozyskać linki site-wide w sposób naturalny, w końcu nikt nie udostępnia opcji – weź mi nabazgraj w menu bocznym lub siderze, w związku z tym takie odnośniki łatwiej jest sklasyfikować moim zdaniem jako „pozyskane/kupione/wyprodukowane”.

      Jak polecają serwis naturalnie użytkownicy, to zdecydowanie częściej wrzucają to jako treść podstrony/artykułu/wpisu 🙂

      Stronie się nie przyglądałem od wewnątrz, nie wiem czy masz za dużo linków na swojej stronie – mówiłem w tym kontekście o linkach przychodzących.

    5. Jasne, nie ma sprawy. I tak jestem Ci już wdzięczny za Twoje odpowiedzi, które pozwalają mi powoli dojść do meritum mojego spadku z G.

      Strony referujące to strony na których znajdują się linki moje linki. Refrering Page to po prostu wartość tych stron, jeśli byśmy wzięli spakowali je do jednego worka?

      A czy do linków site-wide można zaliczyć linki zostawiane na tematycznych forach?

      Powiedz mi czy Ty zajmujesz się pozycjonowaniem stron jako osoba świadcząca tego typu usługi?

    6. Reffering page wskazuje sumę, ilość stron referujących, czyli wskazujących na Twoją. Tym samym, ilość takich odniesień spadła. Wykres nie wskazuje na samą jakość.

      Co do for i side-wide – nie istotny jest tu typ serwisu, tylko to czy link jest dostępny na każdej podstronie serwisu (side-wide), czy tylko i wyłącznie na pojedyńczej. Przykładowo – na dole, w stopce mam link w ramce „Polecane” – są to linki side-wide, bo są na każdej podstronie tego bloga. Za to link jaki uzyskujesz z komentarza, spod swojego imienia i nazwiska – choć też jest na blogu, to jest linkiem not-sidewide, bo umieszczony jest na tej wyłącznie podstronie.

      Tak, zajmuje się 🙂

    7. Ok, wiele mi to wyjaśniło.

      Czyli generalnie pozyskiwanie stron referujących stopniowo spadało od marca tego roku, a we wrześniu i w obecnym miesiącu ten proces praktycznie zaniknął, tak?

      Powiedz mi jeszcze w jaki sposób można z Tobą podjąć współpracę, na jakich warunkach? Szukam osoby zaufanej, która będzie wstanie doprowadzić do sytuacji, że strona wróci na poprzednie pozycje i regularnie będzie mógł ją pozycjonować tak, żeby te pozycje utrzymywały się na swoich pozycjach.

    8. Po prostu przy tej aktualizacji pod kątem Pingwina, możliwe, że wzięto te dane bardziej pod lupę i na ich podstawie zauważono pewną „stratę wartości”. Skoro pozyskiwane linki masowo znikają, to coś jest nie tak – w myśleniu „ślepego” algorytmu 🙂

      Polecam kontakt osobisty, na mail: smjakubiec@gmail.com 🙂

  7. To może inne pytanie zatem: skoro mamy niby naturalnie linkować „brandowo” to jak wypchać interesujące nas frazy kluczowe? tylko treścią na stronie ?

    1. I nie, i tak 😉

      Link brandowy zawiera już sam w sobie słowa w URL, więc coś z czymś się wiąże, to już dobry początek. Jeśli URL koreluje z treścią – tym lepiej, jak pokazałem w jednym z testów – słowa w dowolnym elemencie witryny bez pokrycia w innym (słowo kluczowe w tytule, bez kontekstu w treści – lub słowa w opisach, bez pokrycia w innych elementech) – nie mają sensu.

      Drugim elementem jest to, że nikt nie każe zarzucać normalnego zdobywania linków frazowych – bez przesady. Takie też trzeba pozyskiwać, tylko widząc jak kosi się wyniki – należy robić to nieco subtelniej, z większym rozmachem ale i rozmyciem, na większy przekrój fraz, kombinacji, możliwości.

  8. Ja wczoraj przeglądałam profil linków pewnej strony. Około 70% linków brandowych. I zastanawiało mnie jak to możliwe że na frazę którą sprawdzałam znalazłam w linkowań a strona mimo wszystko wysoko? Problemem może tu być dostępny profil linków np z majesticseo?

    1. Powiązanie tematyczne/kontekstowe, linki brandowe zawierają również frazy, które można powiązać, słowa na stronie – również mogły zaważyć, mam strony gdzie zero linkowania frazowego i dobra optymalizacja robiły swoje.

  9. Można nie publikować, wdzięczny bym był o jakieś sugestie na maila. Dziękuję.

    Witam.
    Wiele da się wyczytać o filtrach, ale można powiedzieć, że same ogólniki. W przypadku powiadomienia w narzędziach dla webmasterów mamy pewność czy strona została ukarana. Co w przypadku kiedy takiej informacji?
    Jakie kroki począć kiedy strona spada w okolice 500 pozycji? Czy musi to być filtr? Czy może to być reakcja na wyzerowanie mocy stron linkujących do niej?
    Inne strony prowadzone podobnie spadki, ale mniejsze, inne wzrosty.
    Anchor 1 – 24%
    Anchor 2 – 16%
    Anchor 3 – 12%
    Anchor 4 – 5 % brandowy
    Anchor 5 – 2,5%
    Ponad 45% innych różnych anchorów.
    Anchory na pozycjach 10-50 ( brandowy nie brany pod uwagę)
    Pytanie moje dlaczego wszystkie jak jeden mąż wylądowały na pozycjach 480-500?
    Rozumiem jedna na 180, druga na 220, trzecia na 90, czwarta na 300.
    Wszystko po 4 X.
    Pozdrawiam
    Jakub

    1. Otóż to. A co w sytuacji kiedy w narzędziach dla webmasterów nie ma informacji o założonej karze, filtrze?

      A nasza strona zanotowała spadki o kilka stron w dół?

    2. @Tobiasz, nie każdy filtr kończy się pamiątkowym powiadomieniem, w takich sytuacjach widząc całą sytuację (bo podstawą w działaniach również jest ciągła analiza i monitoring), należy reagować, neutralizując czynniki wpływające negatywnie na naszą pozycję.

      Rozmycie profilu linków/tekstów, usuwanie starych odnośników itd.

      @Zniesmaczony – powiem Ci, że nieźle śledzisz wyniki skoro dojechałeś do 50 strony. 🙂
      Co do kroków – analiza profilu linków, możliwe że ktoś podjął działania na naszą niekorzyść (SWL? – co ostatnio już kilkakrotnie spotkałem) i coś się w naszym profilu nagle zmieniło.

      Jeśli chodzi o zrównany spadek, 480-500 – chyba taka zbieżność, moim zdaniem wskazuje na działanie celowe, na pewno nie jest to chwilowe wahanie, więc pierwsze co to kontrola – co się zmieniło przez ostatni tydzień, dwa. Co się pojawiło?

      Wprawdzie to pytanie nie padło jeszcze, ale też istotne – na jaką skalę prowadziłeś dotychczasowe działania? Z czego korzystałeś?

    3. A co jeśli konkurencja zadziała za nas i wrzuciła naszą stronę do systemu wymiany linków rotacyjnych? Jak temu zapobiec, jak usunąć i rozmyć linki, które pojawiły się w wielu miejscach tam gdzie my tego nie chcieliśmy?

    4. W SWL’ach można zablokować swoją domenę, jeśli się potwierdzi jej własność. Usuwanie linków – disavow czyli zrzeczenie się konkretnych linków, acz dyskusyjne, lub opcja 2 usuwanie ręczne czyli produkcja maili do serwisów z prośbą. Może zadziała, może nie 😉

      Hmm co do sposobów rozmycia – dojdziesz sam, wystarczy że odpowiesz sobie na pytanie: jak byś rozmył profil linków gdybyś miał za dużo linków z katalogów? 🙂

  10. Wszyscy marudzą na te katalogi ale skądś trzeba brać link juice. Spokojnie można znaleźć 200 porządnych. Ważne aby linkować także z innych miejsc niż katalogi.

  11. Z moich obserwacji w górę poszło kupę dziadostwa. zumi, otomoto, gratka, subdomeny różnych serwisów i inne bzdury. Nie wiem jeszcze czym to się ma ale strony puste bez BL stoją wyżej niż takie ze sporą ilością treści i niezbyt agesywnym linkowaniem. Może to jest patent, zrobić 400 subdomen dla każdego powiatu i podlinkować to między sobą. Treści w sumie podobne i niewiele ale za więcej tego linkować nie trzeba 🙂

  12. Witam.
    Dziękuję za odpowiedź bo miałem obawy czy nie poleci do kosza zapytanie.
    Otóż pozycję sprawdza soft, a ja później tylko ręcznie potwierdziłem.
    Działania nie były jakoś bardzo intensywnie prowadzone.
    Nie było tysięcy komentarzy z sb, nie było żadnych rumaków.
    Były za to linki z moich katalogów i precli. Z ok 50 stron (artykuły, nie z sidebaru) na wordpress.com (które były linkowane z swl rotacyjnego i trzymają się bardzo dobrze do tej pory).
    W sumie może to było ok po 100 linków miesięcznie przez ostatnie kilka miesięcy, a może nawet nie.
    Wcześniej strony były linkowane w kilku grupach katalogów. Zauważyłem już wcześniej (początek roku 2013), że był tam problem z indeksacją. Prawdopodobnie wpisy wypadły z indeksu, lub katalogom przysłużył się disavow.
    Pozycje jednak poleciały dopiero teraz, i to gwałtownie. Nie było systematycznych spadków o kilka/kilkanaście oczek.
    Dlatego przed podjęciem kolejnych kroków tak ważnym czynnikiem dla mnie jest określenie: filtr?, czy utrata mocy wcześniejszych linków, bądź też ich usunięcie, i na podstawie tego ustalenie rankingu strony w wyszukiwarce.

    Mam 2 domeny z filtrem ręcznym. Po wpisaniu w google dowolnej frazy znajdującej się na zafiltrowanej domenie plus nazwa domeny, zafiltrowana strona nie wyświetla się.

    Dla 3 domen z którymi mam problem wpisywana fraza pozycjonowana plus nazwa domeny zwraca wynik na 1 pozycji.
    Dlatego po raz kolejny nasuwa się pytanie. Filtr czy nie? Jak sprawdzić? Czy dobrym pomysłem będzie intensywne podlinkowanie jednej z fraz, która zanotowała spadek, aby zobaczyć jakie to da efekty?
    Pozdrawiam

    1. Fakt, poleciało do SPAMU, ale ciągle monitoruje komentarze i już osoby, którym raz udało się opublikować komentarz nie mają na ogół kłopotów 🙂

      Nie sądzę, by aż tak drastyczny wylot (-500) był przypadkowy, w mojej ocenie jest to działanie filtra – oczywiście jeśli sprawdzane były 3 frazy i to oznacza „wszystkie poleciały” – to co innego, jak sprawdza się 20 fraz i 20 poleciało, nie wspomniałeś o tym dokładniej, więc na to uczulam.

      Katalogi i precle sporo oberwały w tej aktualizacji, może wskazania disavow dotkneły Twoje katalogi/serwisy.

      Dla testu – wybierz jedną frazę, linkuj do niej lekko innymi linkami, dobrej jakości i zobacz co Ci wyjdzie 🙂

  13. Zajmowałem się 4 frazami głównymi, do tego były frazy zbliżone. Poleciały wszystkie 4. Układ procentowy był tak jak wspomniałem wcześniej, więc wykluczam zbyt intensywne linkowanie jednej z fraz.
    Analizując profil linków, moim skromnym zdaniem jest lepszy niż do innych stron którymi się zajmuję, a z którymi nie ma problemu.
    Także na pierwszy ogień pójdzie podlinkowanie 1 z fraz. Czy informować o efektach?
    Zastanawia mnie jeszcze „link dobrej jakości” czyli jaki?
    Mając na uwadze, że według google linkowanie to zło, a linku z wp, czy onetu nie dostaniemy, to jak wskazać taki dobry link? Majestic i jego wskaźniki po dłuższej analizie uważam, że można między książki włożyć.
    Pozdrawiam
    Już mniej zniesmaczony

    1. Informuj, zobaczymy co się okaże w praniu 🙂

      Co do dobrej jakości – możesz zobaczyć na listę Lexy dofollow: http://www.lexy.com.pl/blog/wp-content/uploads/2013/08/lexy-s-dofollow-list-5.pdf

      Link z Onetu czy WP nie jest wbrew pozorom taki trudny do zgadnięcia, traktując Onet/WP jako serwis i wszystkie subdomeny. Tak patrząc na sprawę, ostatnio pokazano jak uzyskać link z Google 🙂

      Ciesze się, że jesteś już mniej zniesmaczony – niestety, Google jest jak gra, raz ktoś wygrywa, innym razem traci. Zobaczymy co będzie dalej 🙂

  14. Napiszę na pewno co się dzieje i co robiłem. Za Lexy dziękuję śledzę ją na bieżąco.
    Mam jeszcze pytania o google pl, com, de.
    Czy łapiąc się na filtr dostajemy go na każdą lokalizację?
    Nigdy nie śledziłem strony na com i na de, a tam strona się pojawia na „normalnych pozycjach”.
    Może tu rolę odgrywa data center?
    Pozdrawiam

  15. Dobry link to np. link z forum na jakim pisujesz w miarę regularnie i temat, o którym jest forum, czyli na bieganie.pl piszesz o butach do biegania itp…

  16. Na pewno nie poleciały strony, które miały bogatą treść. Tutaj moim zdaniem czynnikiem, który gwarantował utrzymanie pozycji była treść.
    Moja strona miała tylko linki prowadzące z for tematycznych – żadnych blogow ani katalogów. Miała więc tylko profil linków z jednego skryptu. Jednakże była bardzo bogata w treść i została na swoich pozycjach 🙂

  17. U mnie też było dużo spadków po ostatniej aktualizacji pingwinka. Przeważnie nie ucierpiały strony, które miały dobre zróżnicowanie linków. Te strony które poleciały linkuję z różnych źródeł na losowe słowa kluczowe i jak na razie polowi pozycje wracają 🙂

  18. Witam po dłuższej przerwie, poświęconej analizie i szukaniu przyczyn spadku.
    Pierwsze co mi się nasuwa na myśl to fakt że każdy przypadek trzeba traktować indywidualnie bez generalizowania.
    Ale do rzeczy.
    Mam dostęp do GWT jako zweryfikowany użytkownik.
    Nie było tam żadnej informacji, aby ze stroną coś się działo, więc skołowany spadkiem szukałem innych przyczyn. Jak się okazało strona była linkowana z swl rotacyjnego i stałego. Była to pozostałość po pozycjonerze, która trwała minimum 2 lata. Uzbierało się w tym czasie sporo linków, jakości sami wiecie jakiej.
    Właściciel witryny wszedł na swoje konto GWT i co się okazuje? Taka ładna wzmianka we wiadomościach. Widniała tam ponad 2 miesiące, tylko dlaczego takiej nie było u mnie? Mam wszystkie wiadomości z tego okresu, ale tą pierwszy raz zobaczyłem jak została mi przesłana.

    Unnatural inbound links
    23 lipca 2012

    We’ve detected that some of the links pointing to your site are using techniques outside Google’s Webmaster Guidelines.

    We don’t want to put any trust in links that are artificial or unnatural. We recommend removing any unnatural links to your site. However, we do realize that some links are outside of your control. As a result, for this specific incident we are taking very targeted action on the unnatural links instead of your site as a whole. If you are able to remove any of the links, please submit a reconsideration request, including the actions that you took.

    If you have any questions, please visit our Webmaster Help Forum.

    Czyli wszystko już jasne, no prawie wszystko.
    Wiadomość z 23 lipca, strona poleciała 4 października. Może dali czas na posprzątanie, a może profil linków był jeszcze na tyle mocny, że nie było reakcji z ich strony, więc tu nie będę szukał problemów.

    Natomiast co zrobić z tym fantem?
    Po posprzątaniu wszystkiego co może się google nie podobać należy zgłosić stronę do rozpatrzenia, tylko jak? Adres podany do zgłaszania strony kieruje do sprawdzenia czy witryna nie ma ręcznych działań.
    Takowych nie ma, więc z tego wynika że ze zgłoszenia nici? Przecież nie będę się prosił o filtr ręczny, żeby zgłosić stronę.
    Czy ktoś wie jak zgłosić stronę która dostałą info o nienaturalnych linkach, ale nie ma filtra ręcznego? Będę wdzięczny.
    Pozdrawiam.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *