sprawdzanie pozycji w google - logo Googlemon

Blog googlemon.pl

O monitorowaniu pozycji w Google i pozycjonowaniu

Archiwum kategorii ‘Pozycjonowanie’

Wyniki testu: jak przycisk Google +1 wpływa na pozycje

skomentuj

Minęły dwa tygodnie od rozpoczęcia testu. Jakie są wyniki?

W przypadku Googlemona, 2-3 dni po dodaniu przycisku dało się zauważyć ruch w pozycjach. Trzy frazy w pierwszej dziesiątce podniosły się lekko, o jedno lub dwa miejsca. Jednak patrząc szerzej, były to ruchy mieszczące się w ramach normalnych wahań.

W przypadku drugiej witryny zabrakło nawet takich pozytywnych akcentów, co więcej, jedna z fraz, w miarę stablina, odnotowała spadek o kilka pozycji utrzymujący się do tej pory.

Wniosek jest taki, że w perspektywie dwóch tygodni samo wstawienie przycisku +1 nie ma znaczącego pozytywnego wpływu na pozycje, więc raczej nie należy z takim działaniem wiązać szczególnych nadziei w kontekście pozycjonowania.

16.09.2011, godz. 14:48

Jak przycisk Google +1 wpływa na pozycje: test

skomentuj

Niedawno pojawiły się pogłoski, że samo wstawienie na stronę przycisku Google +1 może mieć wpływ na pozycję strony w Google. Jeśli tak byłoby rzeczywiście, to póki +1 jest jeszcze mało popularne, otwiera się szansa na wyprzedzenie konkurencji.

Najlepiej oczywiście przekonać się na własnej skórze, zamiast polegać na opiniach innych. W związku z tym wstawiłem przycisk +1 na stronę główną Googlemona i na jeszcze inną witrynę. Obydwie strony są dość stabilne jeśli chodzi o pozycje, więc obserwując co się będzie działo można będzie stwierdzić, czy sama obecność przycisku +1 przysparza sympatii Google.  Myślę, że dwa tygodnie do miesiąca wystarczą na wyciągnięcie wniosków.

P.S. Gdyby ktoś miał ochotę wstawić przycisk u siebie, informuję że jest to łatwe - wkleja się kawałek kodu JavaScript.  Szczegóły na stronie Google “+1 your website“.

03.09.2011, godz. 15:45

Wyniki organiczne Google w zależności od lokalizacji

skomentuj

Kiedyś zapytano mnie podczas publicznego wystąpienia, jak Googlemon radzi sobie z różnicami w pozycjach w zależności od lokalizacji. Odpowiedź była prosta: nie ma takiego problemu. Wyniki organiczne to wyniki organiczne, miejsca to miejsca - dwa oddzielne zestawy danych.

Ale to się zmieniło. Teraz Google miesza te dwie rzeczy. Dla przykładu, zobacz zapisaną stronę z wynikami dla frazy “przewóz osób” przy lokalizacji ustawionej jako “Polska“. Wszystko normalnie, 10 wyników organicznych, na końcu jeszcze link z wiadomościami dla tego hasła.

A teraz zobacz stronę z wynikami dla tej samej frazy, tyle że z lokalizacją “Warszawa“. Wyników jest 15, nie 10, część z nich oznaczona jako miejsca.

W związku z tym zapowiada się nowa funkcjonalność w googlemon.pl: możliwość ustawiania pożądanej lokalizacji. Dzięki temu, jak komuś będzie zależało na pozycjach tak jak widzi je klient z Warszawy, będzie miał podgląd warszawski, jak z innego miasta to z tego miasta, albo ogólnopolski - do wyboru.

24.02.2011, godz. 19:40

Geolokalizacja w Google - jest, czy nie ma?

skomentuj

Czytałem ostatnio artykuł o geolokalizacji na blogu Shpyo. Oto jeden z komentarzy:

najprostrzym dowodem na geolokalizację jest wpisanie w google.pl frazy “sony” to samo w google.de itp :)

W odpowiedzi zacząłem pisać własny komentarz, ale zamiast tego postanowiłem dać wpis na blogu.

W pierwszej kolejności przydałoby się rozróżnić, o geolokalizacji czego mówimy - serwera na którym jest strona, czy komputera szukającego?

Osobiście nie wierzę, że lokalizacja serwera ma znaczenie dla Google, bo ostatnio sprawdziłem adres hostingu wykupionego w Polsce, i okazało sie, że IP jest niemieckie. Takie przypadki mogą występować często, więc lokalizacja IP serwera jest dla Google raczej bezwartościowa.

Google zdecydowanie dopasowuje wyniki do wyszukującego. Wchodząc na google.pl, wiadomo, jest polski zestaw, np. na słowo “sony”. Wchodząc na google.com widać zestaw angielskojęzyczny, ale wystarczy w adresie zamienić parametr hl (język interfejsu) hl=en na hl=pl i są polskie wyniki.

Co do domen, domeny narodowe sugerują język witryny, ale Google jest mocne w jego wykrywaniu i w Webmaster Tools też można ustawić język, więc uważam że domena również nie odgrywa super wielkiego znaczenia. Tym bardziej że domeny narodowe bywają używane w innych językach, np. kliknij.to.

Ciekawi mnie sprawa linków ze strony w jednym języku na stronę w innym języku. Gdybym miał zgadywać, to bym powiedział że bardziej wartościowe są linki ze stron w tym samym języku, ale to tylko spekulacja. Przypadek Zgreda z utratą “geolokalizacji” mógłby sugerować, że Google bardziej wierzy linkom zewnętrznym co do określenia języka strony, niż samej stronie - podobnie jak przy określaniu pozycji bardziej wierzy tekstom linków.

22.01.2011, godz. 18:39

Kategoria: Pozycjonowanie

Jak działa Google na przykładzie Duplicate Content oraz linków przychodzących i wychodzących

komentarze: 2

Z ciekawością przeczytałem wywiad z Kasparem Szymańskim z Google przeprowadzony przez Piotrka Cichosza. Podobnie jak większość komentujących uważam, że odpowiedzi Kaspara niewiele wnoszą, ale niczego innego nie oczekiwałem. Po prostu w publikacjach pracowników Google trzeba czytać między wierszami, z oczywistych względów:

Powodem, dla którego nie podajemy bardziej konkretnych informacji (…) jest fakt, że poza rzeszami webmasterów dbających o jakość swoich witryn i konsekwentnie wyrabiających reputacje są również osoby, które nie przestają szukać dróg na skróty. Podając więcej informacji w tym zakresie oferowalibyśmy zbyt duże pole do eksperymentowania nieznacznej mniejszości, jednoczenie nie pomagając rzetelnym webmasterom.

W związku z tym uważam, że szukając odpowiedzi na pytania chodzące po głowach osobom zainteresowanym działaniem Google (do których należę), warto pamiętać o jednej złotej zasadzie:

Google nie ma możliwości narzucenia webmasterom własnych obowiązujących standardów, musi dostosowywać swój algorytm do internetowej rzeczywistości.

Oczywiście pozycja Google jako najbardziej popularnej wyszukiwarki na świecie w połączeniu z rosnącą wśród webmasterów świadomością potrzeby optymalizacji stron pod kątem wyszukiwarek pozwala Google na kształtowanie tej rzeczywistości, czego wyrazem są np. wskazówki dla webmasterów.

Google nie może jednak w istotny sposób karać za niedostosowanie do tych standardów, ponieważ pogorszyłoby to jakość zwracanych wyników (w sytuacji kiedy najlepsza z punktu widzenia użytkowników strona jest “niewinna i nieświadoma”, tzn. nie zoptymalizowana wg wskazówek Google). Działa to raczej w drugą stronę, tzn. wskazówki są odbiciem pewnych cech wspólnych dla wartościowych stron.

Jak to wygląda w praktyce? Weźmy dla przykładu pytanie o znaczenie tzw. Duplicate Content. Moim zdaniem DC może mieć wpływ na pozycję w Google jeśli zaistnieje w ramach danej witryny (ponieważ webmaster ma na to wpływ). Jeśli będzie na różnych witrynach, nic to nie szkodzi, ponieważ jest naturalne, że ten sam content pojawia się w wielu miejscach, choćby przez RSS, które z definicji można określić jako DC, lub przez to że rozmaite media publikują materiały pochodzące z tego samego źródła, np. z Polskiej Agencji Prasowej czy z Reutersa. Google może faworyzować jedną z witryn, ale raczej nie ukarze innych.

I jak czytamy w odpowiedzi na pytanie o powtarzające się treści:

W przypadku spamu w indeksie Google należy wysłać raport spamu, a w kwestiach kradzieży treści autorskiej polecam odpowiednie zgłoszenie.

Czyli mówiąc wprost: duplicate content może zaszkodzić jedynie jeśli ktoś zgłosi go jako spam lub kradzież treści.

Możemy zastanawiać sie też nad linkami przychodzącymi i wychodzącymi, czy linki przychodzące mogą zaszkodzić. Ta kwestia pojawia się w wywiadzie, w pytaniu 4:

Co zrobić gdy nasza nowa-stara domena, została przez nas oczyszczona, zgłoszona do Google i dalej posiada linki z dziwnych miejsc (złe otoczenie) na dziwne spamerskie hasła (np. viagra itp)?

I odpowiedź Kaspara:

Nic, jak już o tym wcześniej pisałem. Skoncentruj się na rozbudowie serwisu oraz na dodawaniu treści wysokiej jakości :-)

Przytoczę fragment z artykułu o którym mowa:

Jeżeli prośby o usunięcie niechcianych linków nie pomogą, nie warto przejmować się tym problemem zbyt długo. Generalnie, webmasterzy nie mają tak dużego wpływu na to, kto do ich stron linkuje. Warto się skoncentrować na czynnikach, nad którymi ma się kontrolę (…)

Webmasterzy nie mają wpływu na to, kto do nich linkuje, a więc Google musi wziąć to pod uwagę i nie może zbytnio karać za linki przychodzące złej jakości, np. z systemów wymiany linków. A że w praktyce można dostać bana - to swoją drogą.

Inna sprawa jest kiedy witryna sama linkuje do złego sąsiedztwa - ten czynnik jest pod kontrolą webmastera, więc jeśli ktoś ma problemy przez umieszczenie np. linków rotacyjnych z systemu w stopce, to sam jest sobie winien. I sam może to naprawić, usuwając te linki.

W praktyce nikt rozsądny nie umieści na pozycjonowanej stronie linków rotacyjnych, natomiast co do użycia linków przychodzących z systemu - owszem, dlaczego nie?

04.02.2010, godz. 22:08

Podpowiedzi wyszukiwania lepsze niż Keywords Tool

jeden komentarz

Pierwszym wyborem przy doborze słów kluczowych jest Google Keywords Tool. Okazuje się jednak, że przydatnym narzędziem mogą być podpowiedzi wyszukiwania, czyli rozwijana lista sugerowanych fraz pokazująca się podczas wpisywania szukanych słów.

Podpowiedzi wyszukiwania Google

Zaleta podpowiedzi polega na tym, że pokazują to, czego nie pokazuje Keywords Tool. Na obrazku widać podpowiedzi dla słowa psychotesty. Łatwo sprawdzić, że Keywords Tool nie pokaże tych wyników samo z siebie, mimo że byłoby to na miejscu ze względu na adekwatność i ilość wyszukiwań (apropos, z tego co zauważyłem podpowiedzi pokazują się mniej więcej w kolejności od najczęściej wyszukiwanych wg Keywords Tool). Co więcej, nie pokaże ich nawet w propozycjach dla frazy psychotesty dla, a to już moim zdaniem trochę dziwne.

Kolejnym plusem jest szybkość działania podpowiedzi. W sumie mogą być użytecznym dodatkiem przy badaniu słów kluczowych.

System statyczny w SeoNecie

skomentuj

Seonet to najpopularniejszy obok E-weblinka system wymiany linków w Polsce. Od głównego konkurenta odróżnia go to, że oprócz systemu linków dynamicznych, które raz są tu a za chwilę gdzie indziej, jest system linków statycznych które raz przydzielone zostają na stałe.

System statyczny dodano w drugiej połowie 2008 roku i można odnieść wrażenie, że jest jeszcze nie do końca dopracowany. Po wstępnych testach nie zachwycił mnie też skutecznością. Wreszcie jest totalnie nieintuicyjny, tzn. na pierwszy rzut oka zupełnie nie wiadomo o co chodzi.

W zrozumieniu zawiłości systemu statycznego pomógł mi post krupka na forum PiO. Dzięki niemu pojąłem znaczenie poszczególnych kolumn przy linkach w części statycznej:

Limit dzienny - ilość nowych serwisów na których linki statyczne pojawią się jednego dnia. Max linków - maksymalna ilość serwisów z linkami. Po osiągnięciu tej liczby linków statycznych nie będzie przybywać.

Jeśli limit dzienny to 10 a max. linków to 500, system będzie każdego dnia umieszczał linki statyczne na 10 nowych serwisach i tak przez 50 dni, do momentu kiedy linki będą na 500 serwisach.

Średnia ilość stron / linków - aktualna ilość serwisów z linkami / ilość podstron z linkami na tych serwisach.

Nie ma możliwości zdefiniowania ilości podstron z linkami na serwis, system przydziela to automatycznie “w zależności od site: < 1,000 - około na co 16 podstronie, >= 1,000 - około na co 256 podstronie.” Tak że jeśli mamy w zestawie 2 różne linki z tą samą ilościa serwisów to przy jednym linku może być np. 7000 podstron z linkami a przy drugim 25000.

Prawda że dało się zrozumieć?

30.03.2009, godz. 22:04

Kategoria: Pozycjonowanie

Linkowanie wewnętrzne - wyniki testu

komentarze: 7

Prawie miesiąc temu pisałem o linkowaniu wewnętrznym i rozpocząłem test mający ustalić kilka rzeczy. Oto pytania które postawiłem i dla niecierpliwych od razu odpowiedzi:

  1. Czy wewnętrzne linkowanie ma znaczący wpływ na pozycje? TAK
  2. Czy rzeczywiście liczy się tylko anchor pierwszego linka? NIE
  3. Czy linki w stopce są OK? TAK

Teraz jak do tego doszedłem, czyli o testowanych witrynach i frazach.

1. Witryna o rowerach (tak się umówmy), site ok. 10000. Usunąłem  z nagłówka linki do strony głównej i zamiast tego w stopce dodałem dwa: “rowery” i “wiadomości dla cyklistów”. Strona poszła w górę na obydwie frazy.

Rowery (16 mln wyników) - z pozycji poza piewszą 300-tką awans w okolice 130 miejsca po 10 dniach i w okolice 90 miejsca po kolejnych 4 dniach. Później obsuwka i powrót, obecnie ok. 160 miejsca, ale to chyba jakaś inna historia.

Wiadomości dla cyklistów (4 mln wyników) - Na początku ok. 110 miejsca, po 10 dniach ok. 50-tego, po kolejnych 4 dniach ok. 15, teraz oscyluje w drugiej dziesiątce.

Wnioski: Linkowanie wewnętrzne działa. Liczy się nie tylko pierwszy link. Linki w stopce są OK (a to niespodzianka dla użytkowników SWL’i…).

2. Witryna o śrubkach, site ok. 100. Na każdej podstronie logo podlinkowane do strony głównej. Dodałem do obrazka alt, początkowo “śrubki”, po 3 dniach zmieniłem na “zakręcone śrubki” (1 mln wyników w google.pl).

Po 8 dniach od pierwszej zmiany z okolicy 120 miejsca nastąpił przeskok w okolice 45 miejsca i ta pozycja utrzymuje się do tej pory.

Wniosek: Warto dodać ALT do podlinkowanego logo.

3. Witryna o kadłubach. Site ok. 7000. Ponownie logo prowadzące do strony głównej i alt=”kadłuby szczecin” (1,3 mln wyników).

W przypadku tej witryny ważne jest to że pozycjonuje ją ktoś inny na różne frazy, przede wszystkim “kadłuby miasto“. Obserwowałem dodatkowo 2 miasta, jedna fraza lekko się obsunęła z drugiej do trzeciej dziesiątki, druga jest przez cały czas na 4 miejscu. Nie wiem jednak po ile linków sypnięto na różne frazy.

Kadłuby Szczecin: W ciągu 6 dni wahanie i z okolicy 210 miejsca zrobiło się 130. Po kolejnych 6 dniach 13 miejsce i po kolejnych 3 dniach drugie.

Wniosek: ALT w logo + linki zewnętrzne = sukces.

Ogólnie? Amerykany nie mają pojęcia. Wkrótce artykuł o moich wrażeniach na temat różnicy w SEO pomiędzy Polską a zachodem.

18.03.2009, godz. 23:09

Oni nie chcą, żebyś się dowiedział

komentarze: 2

Na początku lutego SEOMOZ zoferował w promocji pełne członkostwo na miesiąc za 1 dolara. Skorzystałem z tej oferty, głównie po to aby zobaczyć ich 3 normalnie niedostępne narzędzia oraz bazę wiedzy, nagromadzoną z pytań dotyczących SEO zadawanych przez ludzi i odpowiedzi redakcji serwisu.

Chyba najciekawszym z narzędzi jest keyword difficulty tool, oceniające jak trudna do wypozycjonowania jest fraza. Zapoznałem się z tym narzędziem i uderzyło mnie to, że liczby na podstawie których określa trudność frazy dotyczą obok ilości wyszukiwań i ilości rezultatów głównie “siły” stron (koncept podobny do Page Rank’u) w pierwszej dziesiątce wyników, pomimo że narzędzie służy do badania słów kluczowych a nie stron jako takich. Chodzi o to, że pozycja strony pod jakimś hasłem być może jest skorelowana z jej PR ale na pewno bardziej z ilością linków do niej z tym hasłem w anchorze.

Tak więc czy nie lepszym miernikiem byłaby ilość linków z określonym anchorem prowadzących do strony? Pewnie tak, problem w tym że wyszukiwarki nie udostępniają tych danych. Każdy wie, że operator link: w Google to żart. Najlepsze co można dostać to Yahoo Site Explorer, który ma jednak istotne ograniczenia, np. to że pokazuje max. 1000 stron z linkami i nie udostępnia danych o anchorach linków. Można te 1000 stron załadować i przeanalizować, są do tego programy, jednak to nie to samo.

Żadna z wiodących wyszukiwarek nie pozwala na zapytania typu inanchor:pozycjonowanie link:googlemon.pl, czyli to co by nas naprawdę interesowało. Powód? Najlepiej podsumowany na blogu MSN w poście o wyłączeniu operatora link: i innych:

We have been seeing broad use of these features by legitimate users but unfortunately also what appears to be mass automated usage for data mining. So for now, we have made the tough call to block all queries with these operators.

A propos MSN / live.com, ta wyszukiwarka ma ciągle ciekawy operator linkfromdomain: pokazujący linki wychodzące z domeny.

Promyk nadziei dla dociekliwych pozycjonerów to Netsprint, który umożliwia łączenie link: z operatorami keywords:, description: i title:. To znaczy, że można przynajmniej poszukać zbliżonych tematycznie stron linkujących do podanej domeny. Wadą Netsprintu jest mały indeks, WP korzystająca z tego samego silnika ma większy. Witaj Wirtualna Polsko!

27.02.2009, godz. 14:22

Kategoria: Pozycjonowanie