Unikalność tekstów

Witam.

Dzisiaj będzie krótki wpis bo piłem piwo 😉

Jeżeli chodzi o unikalność tekstów w kręgach albo kołach linków, warto wspomnieć o tym ponieważ Google wyindeksowuje nieużywane kręgi [bardziej chodzi o te rzadko aktualizowane]. Stąd, posiadając wiele kont w różnych lokalizacjach internetu, ważne jest aby tekst który dodaje się do jakiegokolwiek programu tworzącego kola linków był unikalny w co najmniej 30%.

Dzieje się tak ponieważ algorytmy google wykrywają duplicate content i jeśli tekst ma 30 procentową unikalność wtedy, linkwheel jest łatwo wykrywalny i usuwany z indeksu. Natomiast wszystko powyżej, zwiększa jego skuteczność.

Dlatego co warto zrobić;

Proste mieszanie tekstu daje unikalność właśnie 30%

czyli pisząc tekst w ten sposób

{tekst mieszany1| tekst mieszany2|słowo kluczowe} – liczba kombinacji = 3

Otrzymamy własnie tak niską skuteczność.

Ale, jeżeli zaczniemy zagnieżdżać mocniej teksty w ten sposób

{{zdanie 1 |zdanie2{synonimy jakiegoś słowa1|synonimy jakiegoś słowa2}}

{zdanie 3{synonim 1|synonim 2|synonim 3}|zdanie4{synonim1|synonim 2}}

bla bla bla

{kolejna porcja tekstu mieszanego|z innym tekstem mieszanym}

to otrzymamy następujące kombinacje:

zdanie 1
zdanie 3 synonim2
bla bla bla
z innym tekstem mieszanym

 

zdanie 1
zdanie4 synonim 2
bla bla bla
kolejna porcja tekstu mieszanego

 

zdanie2 synonimy jakiegoś słowa2
zdanie4 synonim 2
bla bla bla
z innym tekstem mieszanym

itd.

Zagnieżdżanie powoduje często błędy składniowe i nie wszystkie mieszarki tekstu są w stanie je obsłużyć. Trzeba uważać na otwieranie i zamykanie nawiasów klamrowych {..1..|..2..{_3_|_4_}}

Wiem, że w powyższym przykładzie są błędy zagnieżdżania lub mój program nie obsługuje tylu jego poziomów. Ale naprawdę polecam przysiedzieć więcej czasu i wygenerować jak najwięcej unikalnych tekstów, to będzie gwarancja, że wasze kręgi się utrzymają w sieci.

Unikalność tekstu możecie sprawdzać przy pomocy copyscape.com lub innego testera plagiatu.

Deindeksacja największych farm linków

Nowe reguły jakie narzuciło Google, nie pozostawiają złudzeń co do tego, że nowy algorytm Panda deindeksuje znane portale blogowe, a raczej ich podstrony.
Sieci, w których można było założyć bloga, są utrzymywane pod lupą Google.

Stało się tak dlatego, że wiele blogów postawionych na ów portalach generowało za dużo farm linków i tak też są postrzegane przez nowy algorytm.
W związku z tym, wiele z nich było stworzone pod zaplecza linków które prowadziły do pozycjonowanych stron, zwiększając tym samym pozycję w sieci, w sposób nienaturalny.

Stąd założenie żeby linki pochodziły z autoryzowanych stron np. WIKI, które są uwielbiane przez Google, bo jak się okazuje sieci blogowe „są ubogie w treść i nie można im ufać”… To takie krótkie przesłanie od G, które warto wziąć pod uwagę przy tworzeniu sieci linków dla własnego zaplecza.