Generowanie site i metody ...
Generowanie site i metody tworzenia nowych treści,
[ Pobierz całość w formacie PDF ]
//-->Kilkanaście dni temu jeden z czytelników zwrócił się do mnie z pytaniem, w jaki sposób szybko ibezboleśnie nabić duży site na jego stronie firmowej, jako argument przemawiający ZA podał, żedzięki temu jego witryna tanim kosztem w krótkim okresie czasu zyska tysiące odwiedzin, ale nieto pytanie jest istotne - ciekawszą kwestią jest jakiej metody użyć do generowania treści. Czy napewno przywołana metoda wciąż działa - mowa o nabijaniu site i czy są skuteczne metody wgenerowaniu contentu?Dawno dawno temu kiedy jeszcze można było wypozycjonować stronę na konkurencyjne frazysamymi katalogami i preclami, faktycznie nabicie dużego site w Google przynosiło wymiernekorzyści. Seowcy masowo prześcigali się w coraz to nowszych metodach generowania treści nastrony, od scrapowania artykułów z Wikipedii, poprzez tłumaczenia tekstów z języka angielskiegona polski, a kończąc na wyszukanych algorytmach analizy, przetwarzania i generowania. Wszystkoodbywało się w sposób w pełni zautomatyzowany lub w ostateczności półautomatyczny, tanimkosztem można było osiągnąć to, na co wiele osób pracowało przez lata. Czy metody sprzed parulat wciąż działają? Zanim odpowiem na to pytanie przejdę do innego punktu.By utrudnić działania, Google na przestrzeni kilku ostatnich lat wprowadziło liczne zabezpieczenia,dzięki którym metoda nabijania site straciła na efektywności. Na podstawieanaliz filtrówalgorytmicznych,które przeprowadziłem na przestrzeni ostatnich 2 lat można wyłowićprawidłowości, które prowadziły do kar. Jedną z tych prawidłowości jest szybki przyrost site, czy topoprzez umyślne generowanie nowych podstron w serwisie, czy też nieświadome powielaniepodstron w obrębie domeny i/lub subdomen.Czy wygenerowanie dużej liczby podstron, których zawartość jest bardzo zbliżona do siebienegatywnie wpływa na postrzeganie domeny i zwiększa ryzyko otrzymania kary od Google? Jasneże TAK. Niestety wciąż wiele osób wychodzi z założenia - "czym więcej tym lepiej" lub "lepiejbyle jak niż wcale", jednak w dzisiejszych czasach takie podejście ma krótkie nogi i część osób,których strony ugryzła Panda, przekonało się o tym na własnej skórze.Jakiś czas temu pisałem o rel="canonical" zlecieli się wielcy "znawcy" tematu wypowiadającsłowa, jakoby canonical nie był żadnym zabezpieczeniem, owszem nie jest to panaceum nawszystkie "choroby", ale jak pokazuje praktyka (przykładtutaj),poprawna implementacja canonicalmogła zmniejszyć duplikowanie i zapobiec późniejszym wydarzeniom. Na szczęście w tymprzypadku obyło się bez płaczu, szybka reakcja pozwoliła naprawić problem, jednak wieluwłaścicieli sklepów wciąż bagatelizuje zagrożenie. Mam nadzieję, że w świadomości tych osób cośdrgnie, również za sprawą podobnych artykułów.Nieco odbiegliśmy od tematu przewodniego, wracamy do pytania czytelnika. Czy sztuczniegenerowany content może sprawić, że domena zyska tysiące odwiedzin? I tak i nie, wszystko zależyod jakości generowanej treści tj. metody generowania. Najpopularniejsze to generowanie nowejtreści poprzez użycie synonimów. Niestety metoda aktualnie słabo sprawdza się chyba że...W zeszłym roku testowałem możliwości wykorzystania auto wygenerowanych tekstów w ściąganiuruchu na strony docelowe. Do tego celu między innymi stworzyłem prosty programik, który miał zazadanie stworzyć nowe treści, które następnie mogły zostać umieszczone (zaimportowane) nastronie.Metoda okazała się połowicznie skuteczna albowiem nie miałem kiedy skończyć metodysłownikowej oraz wprowadzić udoskonalony algorytm krzyżowy (pochodzący z algorytmugenetycznego). Udało się ściągnąć trochę ruchu na satelitę, ale to było poniżej moich oczekiwań -inaczej mówiąc test powiedział, że gra nie jest warta świeczki. Google dobrze sobie radzi zesztucznie generowanymi tekstami ale uważam, że do ideału jeszcze daleka droga, z pewnością przyużyciu odpowiednich aplikacji (algorytmów) da się stworzyć treści, które będą w pełni odporne naalgorytmy wykrywania sztucznej treści lub inaczej... będą zrozumiałe dla czytelnika na tyle, żealgorytm nie będzie potrafił nic wykryć. Jednak pamiętajmy, że analizując pełne spektrum tekstówna stronie zawsze można wyłowić regularności, dotyczy to nawet treści pisanych przez ludzi, którzymają swoje nawyki w pisaniu.W programie zastosowałem bardzo proste metody łączenia i podstawową podmianę wyrazów, co bybyło gdyby oprzeć się na inteligentnych algorytmach zawartych choćby w zaawansowanychsynonimizatorach tekstów? Jeżeli tylko czas pozwoli na dokończenie programu, będę w tym rokuponownie testował tę metodę.Dla jasności, nikogo nie namawiam do wykonywania tego typu testów, a tym bardziej generowaniasztucznej treści na domenach firmowych - powiem wręcz, że sam nawet bałbym się zastosowaćmetody na lepszej jakości zapleczu nie mówiąc już o domenie firmowej. Test przeprowadzałem wramach corocznych eksperymentów, w celu sprawdzenia potencjału metody - wiemy doskonale ilekasy przeznaczamy na napisanie przyzwoitej jakości treści na zaplecza, jeśli udałoby sięzaoszczędzić choćby 50% na tekstach zastępując je sztucznie generowanymi, sensownymi,zrozumiałymi dla człowieka treściami i "uodpornionymi" na Google, byłaby to wielka oszczędnośćczasu i przede wszystkim pieniędzy, co doprowadziłoby do wzrostu opłacalności projektów SEOlub jak kto woli zwiększenia zysków.Manunu
[ Pobierz całość w formacie PDF ]