Podsumowanie hangout z Johnem Muellerem

John Mueller Webmaster Trends Analyst, Zurich, SwitzerlandWczoraj odbył się hangout z pracownikiem szwajcarskiej siedziby Google, który ostatnio zabłysnął trafnymi i szokującymi wypowiedziami. Nie da się ukryć, że wypowiedzi Johna zazwyczaj są o wiele cenniejsze dla webmasterów, zawierają konkrety i precyzyjniejsze informacje. Kilka chwil temu opublikowałem wpis dotyczący wypowiedzi Matta Cuttsa dotyczących tworzenia wartościowych stron, infografik oraz  działań public relations w sieci, a tu już mamy kolejne rewelacje od pracowników Google.

Najciekawsze kwestie, które poruszono:

Czy przypisanie rel=”author” wpływa na pozycję strony, jej autorytet?

Tag rel=”author” nie wpływa na pozycję ani autorytet strony, natomiast, choć nie ma na ten temat jeszcze konkretnych danych – zwiększa on zauważalność danego wyniku, zwiększając jego CTR (klikalność).

Omawiając przypadek jednej ze stron, która posiada dosyć sporą ilość subdomen, które określa mianem „bad seo” – uzyskano odpowiedź jak skutecznie wyjść z tej sytuacji:

Najlepszym rozwiązaniem jest ustawienie strony błędu 404, zamiast stosowanie pliku blokującego dostęp (robots.txt). W przypadku robots.txt roboty nie mają dostępu do pliku, więc nie mogą zaindeksować braku danej podstrony. Wzrost ilości 404rek na stronie nie stanowi problemu dla robotów wyszukiwarek.

Marta (Lexy), obecna na hangout’cie opisała również inny, dosyć drastyczny wniosek:

W pierwszej kolejności należy skontaktować się z właścicielami stron, na których takie linki się wyświetlają i poprosić o ich usunięcie. Jeśli to niemożliwe, a linki kierują do podstrony serwisu to rozwiązaniem problemu jest jej usunięcie. Google zignoruje wtedy linki prowadzące do tej podstrony.

Dodatkowo, udało się dowiedzieć, że szwajcarski oddział Google pracuje nad algorytmem mającym wykrywać oryginalne źródła treści. Obszerniejszy opis u Karola Dziedzica.

Chcesz być na bieżąco?

Zapisz się do newslettera - najświeższe informacje, porady oraz artykuły dzięki którym zwiększysz swoje pozycje w wyszukiwarce!


11 thoughts on “Podsumowanie hangout z Johnem Muellerem

  1. Powiem szczerze, że rozwiązanie z likwidacją podstrony/wpisu to przejaw bezsilności pracowników SQT w Google. Sorry, tak idiotycznej porady jeszcze nie czytałem.

    1. To samo pomyślałem, już widzę, jak ludzie usuwają swoje wartościowe treści by się pozbyć niechcianego linku.

  2. Kamil, lepsza taka rada niż ta, żeby kontaktować się z webmasterami w celu usunięcia linków z ich stron 😉 Gorsze, jeśli linkowana jest strona główna lub kategoria, bo przy atakach konkurencji to raczej one będą głównym celem, a nie jakieś pojedyncze podstrony, na usunięcie których faktycznie można sobie pozwolić.

    Ale swoją drogą to tym bardziej potwierdza, żeby przy ewentualnych większych zmianach na stronie albo zakupie domeny z historią, dokładnie sprawdzać jakie podstrony mają wartościowe backlinki i albo stosować 301, albo utworzyć podstrony o takich adresach.

  3. Marta, ja sobie nie wyobrażam sytuacji następującej. Stworzyłem super mega content w formie artykułu. Ktoś mnie nie lubi ( a trochę ludzi mnie nie lubi) i ładuje w mój artykuł „złymi linkami”. Czy dlatego, że ktoś jest wobec mnie uprzejmy, muszę go wykasować, tudzież przenieść?
    Czy to nie świadczy o słabości algorytmu?

    1. „Czy to nie świadczy o słabości algorytmu?”
      Owszem, świadczy. Ale myślę, że usunięcie podstrony to ostateczność.

      Zacznijmy od tego, że nie każdej stronie linkowanie przez konkurencję zaszkodzi – najbardziej są na to narażone młode serwisy, które nie zdążyły zbudować sobie zaufania w „oczach” wyszukiwarki. Z tego co widzę, swojego bloga założyłeś całkiem niedawno, więc jesteś w grupie zwiększonego ryzyka 😉

    1. Zastanawiam się czy katalogów też to się tyczy? Hmm, myśląc logicznie – przecież możemy wierzyć, że chodzi o logiczny, użyteczny spis miejsc w sieci, z którego użytkownicy zaczynają poszukiwania. Więc powinno chodzić tylko o te rzeczywiście nie wartościowe miejsca… Jak zwykle co kwestia to coraz więcej aspektów niedopowiedzianych za nią 😉

  4. Ja bym na miejscu google rozwiązał problem niechcianych linków inaczej. W webmaster tools dodał bym formularz do zgłaszania niechcianych linków. Oczywiście mógł by to zgłaszać tylko webmaster po zalogowaniu się w panelu. W tedy google powinno taki link ignorować. Może to utopia ale jakoś muszą to rozwiązać.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *