Prečo Yandex nehľadá zakázané informácie. Rýchle indexovanie stránok v Yandex. - Pomalá rýchlosť nahrávania dokumentov

Vytvorili ste si webovú stránku, no neviete ju nájsť vo vyhľadávačoch? Žiaden problém! V tomto článku sa dozviete, ako indexovať stránky v Yandex a Google v čo najkratšom čase. Pravdepodobne je zbytočné hovoriť o výhodách rýchleho vstupu do indexu vyhľadávačov. Každý predsa chápe, že čím skôr sa jeho stránka zobrazí vo výsledkoch vyhľadávania, tým rýchlejšie sa objavia noví zákazníci. A aby to fungovalo, musíte sa dostať do databázy vyhľadávačov.

Mimochodom, vďaka správnemu prístupu sú nové materiály našej stránky celkom dobré a čo je najdôležitejšie, vyhľadávače ich vždy rýchlo indexujú. Možno ste sa na túto stránku dostali aj po uplatnení príslušnej požiadavky vo vyhľadávacom paneli. Od textov prejdime k praxi.

Ako zistiť, či je stránka indexovaná?

Prvá vec, ktorú musíte urobiť, je zistiť, či je stránka indexovaná vyhľadávacími nástrojmi. Je možné, že stránka jednoducho nie je na prvej stránke vyhľadávania pre zadaný dopyt. Môžu to byť vysokofrekvenčné požiadavky, na ktorých musíte pracovať, a nielen vytvoriť a spustiť stránku, ktorá sa má zobraziť.

Takže pre kontrolu ideme do všetkého vyhľadávače, do ktorého má zmysel vstúpiť ( Yandex, Google, Mail, Rambler) a do reťazca vyhľadávacieho dopytu zadajte adresu lokality.

Ak váš zdroj ešte nebol indexovaný, vo výsledkoch vyhľadávania sa nič nezobrazí alebo sa zobrazia iné stránky.

Ako indexovať stránku v Yandex?

Na začiatok vám povieme, ako indexovať stránku v Yandex. Pred pridaním zdroja však skontrolujte, či funguje správne, správne sa otvára na všetkých zariadeniach a či obsahuje iba jedinečný obsah. Ak napríklad pridáte stránku vo fáze vývoja, môžete jednoducho spadnúť pod filter – stalo sa nám to raz a museli sme čakať celý mesiac, kým Yandex pochopil, že máme kvalitnú stránku a zrušili sankcie.

Ak chcete informovať Yandex o novej stránke, potrebujete a , prvý nástroj je zodpovedný za ďalšie informácie o zdroji ( región, štruktúra, rýchle prepojenia) a spôsob, akým stránka vyzerá vo výsledkoch organického vydávania, druhá na zhromažďovanie údajov na stránke ( dochádzka, správanie a pod.), čo podľa našich skúseností ovplyvňuje aj indexovanie stránky a jej pozíciu vo vyhľadávaní. Nezabudnite vytvoriť mapu stránok a špecifikovať ju na paneli správcov webu.

Ako indexovať stránku v Google?

Najčastejšie samotný Google rýchlo nájde nové stránky a zaženie ich do vyhľadávania, no čakať, kým Google príde a urobí za nás všetku prácu, je príliš arogantné, takže poďme zistiť, ako indexovať stránku v Google.

Prvým je panel Google Webmasters Dashboard a . Držíme sa rovnakých cieľov – poskytnúť maximum informácií o stránke vyhľadávačom.

Po pridaní stránok by malo trvať 3 až 7 dní, kým vyhľadávače aktualizujú údaje a indexujú stránku.

Vždy chcete, aby sa nové stránky vo výsledkoch vyhľadávania zobrazovali čo najrýchlejšie, a preto existuje niekoľko tajných (a veľmi jednoduchých) spôsobov, ako urýchliť indexovanie stránok vo vyhľadávačoch.

3. Ak chcete vykonať manipuláciu popísanú v odseku 2, iba pre vyhľadávač Google, prejdite do Search Console. Vyberieme „Prehľadávať“ a „Pozrite sa ako Googlebot“ – pridajte adresu novej stránky a kliknite na „Prehľadávať“, potom požiadame o indexovanie.

Analýza indexovania webových stránok

Na záver treba poznamenať, že ani po úspešnom zaindexovaní stránky vo vyhľadávačoch práca nekončí. Je potrebné pravidelne analyzovať indexovanie stránky, ako aj odstraňovať pozície pre obľúbené dopyty. To vám umožní držať prst na pulze a neocitnúť sa v situácii, keď významná časť návštevnosti z organickej emisie jednoducho zmizla.

Toto sa stalo mnohým starším stránkam, ktoré používali staré metódy propagácie, keď . Yandex zároveň vopred oznámil, že spúšťa tento algoritmus a opätovne optimalizované stránky budú vylúčené z vyhľadávania, zatiaľ čo Google nikdy neoznámil vydanie nových algoritmov. Preto len neúprosná kontrola vám umožní zostať lídrom témy alebo sa ním stať!

Takže ste vytvorili stránku, naplnili ste ju jedinečným obsahom a potom ste ju pridali do najpopulárnejších vyhľadávacích nástrojov, ako sú Yandex a Google, ale z nejakého dôvodu je stránka zle indexovaná alebo nie je indexovaná vôbec. V tomto článku vám poviem o hlavných dôvodoch zlého indexovania stránok a tiež vám poskytnem niekoľko tipov, ktoré môžu urýchliť proces získavania stránok stránok do vyhľadávačov.

Skôr než prepadneme panike, zistime, ako dlho je možné stránku po zaradení do vyhľadávačov indexovať a kedy začať byť nervózny.

Vo väčšine prípadov sa stránka začne indexovať niekde za 2-4 týždne. Niekedy aj rýchlejšie (aj na druhý deň!). Ak sa stránka neindexuje dlhšie ako mesiac, tak už je potrebné začať prijímať opatrenia na odstránenie dôvodov, ktoré bránia indexovaniu stránky. Je samozrejme lepšie najprv sa uistiť, že neexistujú žiadne takéto prekážky ...

Prečo stránka nie je indexovaná

Najprv sa pozrime na hlavné dôvody, prečo môže byť indexovanie stránok zložité:

Nejedinečný obsah. Články na stránke musia byť jedinečné, t.j. nemali by sa nachádzať na iných stránkach. Najmä vyhľadávače nemajú radi stránky s nie jedinečným obsahom, ktoré predávajú odkazy. Takéto stránky skôr či neskôr (a V poslednej dobe to sa stáva veľmi často) spadajú pod filter PS, z ktorého je takmer nemožné dostať sa von a stránky takýchto stránok navždy zmiznú z vyhľadávania. Ak stránka mala nejedinečný obsah, ale odkazy z nej sa nepredávali, potom existuje šanca, že stránka bude indexovaná a hodnotená normálne, keď sa na vašej stránke objavia jedinečné články.

Opätovná optimalizácia, spamovanie. Nepreháňajte množstvo kľúčové frázy v článku, ako aj značky , , atď. Všetko by malo pôsobiť prirodzene a uvoľnene.

Nekvalitný obsah. Myslím, že nie je potrebné vysvetľovať, čo je to nekvalitný obsah. Každý z nás vie, aký druh článku napísal - pre ľudí alebo pre vyhľadávacích robotov ...

Stránka je zrkadlom inej stránky. Ide o situáciu, keď existuje stránka s absolútne jedinečným obsahom, ktorá však z hľadiska významu a štruktúry úplne alebo čiastočne kopíruje inú stránku. Takéto stránky môžu byť filtrované aj vyhľadávačmi. Prinajmenšom Yandex nemá takéto stránky veľmi rád a ak si to všimne, „prilepí“ ich „hlavným zrkadlom“ všetkých stránok.

Indexovanie stránok je v súbore robots.txt zakázané. Stáva sa, že správca webu môže omylom zakázať indexovanie stránky v súbore robots.txt. Takže najprv skontrolujte tento súbor. Ak neviete, čo je robots.txt, potom v časti „Používanie robots.txt“ zo služby Yandex.Webmaster je všetko veľmi dobre popísané.

Indexovanie stránok je v metaznačkách zakázané. Nezabudnite skontrolovať HTML kód stránky. Ak kód obsahuje kód, znamená to, že vyhľadávacie roboty majú zakázané indexovať stránku, ako to naznačuje príkaz noindex, a sledovať odkazy na stránke (príkaz nofollow). Existuje podobná metaznačka. Táto metaznačka tiež zakazuje indexovanie textu a sledovanie odkazov na stránke.

Predaj odkazov zo stránky. Yandex nie je proti tomu, že vlastník stránky zarába málo (alebo veľa) predajom odkazov zo svojej stránky. Ak však predávate príliš veľa odkazov (a koľko, to je „príliš veľa“, vie iba Yandex), môže to viesť k masívnej strate stránok z indexu. Mali by ste tiež pochopiť, že ak chcete zarobiť peniaze na stránke predajom odkazov, potom by táto stránka mala byť pre používateľov internetu skutočne užitočná (dobre, alebo aspoň trochu užitočná) a samozrejme by mala obsahovať jedinečné články. . To isté nemôžem povedať o Google. Vo všeobecnosti sa vyhľadávač Google snaží indexovať všetko, čo je možné aj nemožné - akési indexovacie monštrum (stáva sa, že Google indexuje aj tie stránky, ktoré sú v súbore robots.txt zakázané na indexovanie, ak majú odkazy), ale nehodnotí dobre všetky stránky (berie do úvahy). Existuje tiež názor, že váha stránky sa stráca, ak má príliš veľa externých odkazov – to je ďalší dôvod, prečo NEZMENIŤ stránku na skládku odkazov.

Výbuch odkazu. Ak jedného krásneho dňa začnú tisíce zdrojov odkazovať na neznámu stránku naraz, môže to mať za následok prísne sankcie zo strany vyhľadávačov, a to vo vzťahu k stránke, na ktorú odkazujú, ako aj k odkazujúcim stránkam. V podstate sa každý zraní!

Hosting blokuje roboty vyhľadávacích nástrojov. Žiaľ, aj toto sa stáva. Využite teda služby dôveryhodných hostiteľov, ktorí majú dobrú povesť.

Doména, ktorú ste si kúpili, bola predtým zakázaná (zablokovaná) vyhľadávacími nástrojmi. Ak je možnosť naštudovať si históriu kupovanej domény, tak si ju určite preštudujte.

Stránka sa omylom dostala pod filter PS. Nestáva sa to tak často, ale stáva sa to (asi v 1-2% prípadov). Ak ste si istí, že vaša stránka spĺňa všetky požiadavky štandardu kvality vyhľadávačov, môžete im napísať list a po chvíli (možno po dlhej korešpondencii) bude vaša stránka indexovaná.

Mnoho ďalších dôvodov, ktorých je toľko, že sa do jedného článku jednoducho všetko nezmestí. Zapnite logiku, analyzujte stránku a sami budete môcť identifikovať dôvody, ktoré bránia indexovaniu stránky v PS.

Ako urýchliť indexovanie stránok

Ak ste si istí, že vaša stránka neporušuje pravidlá hry (nazvime to tak), no napriek tomu nie je pomerne dlho indexovaná, vyhľadávacie roboty jednoducho nemusia byť schopné nájsť vašu stránku. No nemôžu a basta! V takom prípade musíte vyhľadávaču pomôcť nájsť stránky vášho webu, o čom si povieme ďalej.

Ako teda urýchliť indexovanie stránok vo vyhľadávačoch Yandex a Google:

Krok 3: Zadajte v súbore Sitemap všetky stránky, ktoré je potrebné indexovať. Mnohí weboví majstri tento súbor zanedbávajú, pretože ho v procese indexovania stránok nepovažujú za taký významný, ale márne. Niekedy je to súbor Sitemap, ktorý môže pomôcť pri indexovaní stránky. A nedávno som sa o tom presvedčil, keď som dostal za prácu 3 stránky, ktoré mali jeden spoločný problém – do 6 mesiacov mala každá stránka zaindexované len 2-3 stránky vo vyhľadávači Google. Navyše, všetky tieto stránky sú už dlho pridané do Google Webmaster Center a Yandex.Webmaster a mnoho stránok z rôznych stránok už bolo prepojených. Napodiv, tieto stránky sú už dlho úspešne indexované v Yandex PS, ale Google ich z nejakého dôvodu obišiel. Potom som sa rozhodol pridať súbory sitemap na všetky stránky. A čo myslíte - už za 2-3 týždne sa všetky 3 stránky začali indexovať v Google. Tiež som si všimol, že ak pridáte stránku na panel správcu webu a na rovnakom mieste zadáte cestu k súboru Sitemap, stránka sa často indexuje už za 1 deň! Ak neviete, čo je súbor Sitemap, môžete si o ňom prečítať. Takmer každý nástroj má svoje vlastné doplnky, ktoré generujú súbor Sitemap, ale ak váš nástroj túto možnosť nemá, môžete súbor Sitemap vygenerovať pomocou špeciálnej služby, ako je XML Sitemaps Generator . Stačí zadať adresu lokality a kliknúť na tlačidlo Štart, potom stiahnuť tento súbor a nahrať ho cez ftp do koreňového priečinka vašej lokality. Potom zadajte cestu k súboru sitemap na paneli správcu webu.

Krok 5 (voliteľné): Urýchlite indexovanie stránok pomocou externých odkazov. Väčšina efektívna metóda indexovanie webu pomocou externých odkazov znamená, že rôzne (najlepšie tematické) blogy odkazujú na najvýznamnejšie stránky vášho webu, pretože sú indexované najrýchlejšie (ak je blog populárny a často aktualizovaný, môže byť indexovaný každé 2. hodiny!). Večné odkazy z blogov na stránku (stačia 2-3 odkazy na stránku) môžete získať pomocou služby Blogun alebo akýchkoľvek iných služieb.

Čo robiť, ak stránka stále nie je indexovaná?

Ak všetky tieto tipy nepomohli a vaša stránka nebola zaindexovaná ani po ďalšom mesiaci, zostáva už len jediné – napísať pracovníkom vyhľadávačov:

  • Napíšte na Yandex. Prax ukazuje, že vo väčšine prípadov odpovedajú na nasledovné: „zlepšite kvalitu svojich stránok ...“. Ale nezúfajte, ak ste dostali odpoveď podľa šablóny - s najväčšou pravdepodobnosťou to znamená jednu vec, že ​​na kontrolu stránky nebol vôbec čas. V prípade potreby vstúpte do dlhej korešpondencie so spoločnosťou Yandex a obhajujte svoje práva. Dajte im vedieť, že vám na vašej stránke záleží. Ak ste si úplne istí, že vaša stránka má vysokú kvalitu, filter z nej skôr či neskôr odstráni.
  • Napíšte spoločnosti Google. Google môžete položiť otázku v ruštine, no odpovedia vám v angličtine a najčastejšie štandardnou odpoveďou. Prvá odpoveď bude asi takáto: „Prijali sme vašu žiadosť o kontrolu stránky... atď. a tak ďalej.". Druhá odpoveď, ak je s vašou stránkou všetko v poriadku, bude asi takáto: „Skontrolovali sme vašu stránku a nezistili sme prítomnosť spamu. Počkajte, kým sa stránka indexuje.

Na záver by som vám rád dal poslednú radu. Neuvádzajte adresu svojej stránky na rôznych fórach, blogoch a iných zdrojoch a nikomu nehovorte, že vaša stránka ešte nebola indexovaná. Nečestní ľudia to môžu zneužiť tým, že z vašej stránky ukradnú celý obsah. Tiež by ste nemali registrovať neindexované stránky do adresárov, pretože. vlastníci adresára môžu na vašom webe vyhľadať stránky vo vyhľadávaní a tiež ukradnúť stránky webu.

Prajem vám úspešné indexovanie!

Obľúbenosť poznámky: 34 %

Ak sa vám páčili materiály stránky a chcete sa poďakovať autorovi tohto zdroja, skopírujte kód bannera nižšie a vložte ho na ľubovoľnú stránku svojho webu.

34 komentárov k príspevku "Prečo stránka nie je indexovaná alebo o čo sa malo vopred starať"

    Dobrý deň, na úkor bodu 3 mám stránku na ucoz, ale z nejakého dôvodu boli v Yandex indexované iba 2 stránky a hoci tam sú súbory

    Vo všeobecnosti sú stránky vytvorené pomocou ucoz celkom dobre indexované vo vyhľadávačoch kvôli vysokej dôvere v ucoz. Niekedy stačí pridať stránku do Yandex.Webmaster a Google Webmaster Center a stránka je indexovaná bez problémov za 2-4 týždne, ak má, samozrejme, jedinečný obsah. Skúste pridať súbor XML Sitemap s odkazmi na stránky lokality – možno to pomôže. Je pravda, že neviem, či stránky na ucoz majú takúto príležitosť.

    Ako dlho nebola stránka indexovaná?

    Ahoj. Článok je veľmi dobrý, ďakujem! Stále mám ale otázku, na ktorú mi nedokáže odpovedať žiadny článok (nikde sa o tom nepíše). Moja stránka na doméne uCoz je bezplatná a téma VAREZ. Pridávam len unikátne novinky, píšem si ich sám, chyby sú len v menách hlavných postáv filmov alebo hier, čiže vyhľadávač tieto mená alebo slovné spojenia nepozná. Roboti Yandex často zmeškajú nejaké novinky, pridám 10 jedinečných filmov a preskočím 2! Len to preskočí a nie je to problém. Niekedy po pár mesiacoch si tieto stránky všimne, niekedy nie. Na skenovanie nových správ musíte tiež počkať týždeň až 2 mesiace. Samozrejme, z tohto dôvodu ich pridávam len Zriedkavo, otázka znie: Ak pridám 1 alebo viac nových unikátnych správ každý deň, bude tento problém odstránený? Stránka má 2 sitemap xml mapy zo spodnej časti samotného yukozu a samotnej manuálnej mapy, má odkazy na všetky stránky, ktoré treba indexovať (práve som si to nainštaloval po 3 mesiacoch od vytvorenia stránky. A teraz je stránka už má 7 mesiacov)

    chyby iba v menách hlavných postáv filmov alebo hier, to znamená, že vyhľadávací nástroj nepozná tieto mená alebo frázy

    Robíte tieto chyby zámerne? Je lepšie, ak sú všetky mená správne. Vyhľadávače stále poznajú najväčšiu časť mien a názvov a ak je meno nesprávne napísané vo vyhľadávaní, tak ho PS automaticky opraví. Ak má stránka veľa nesprávnych názvov a chýb, môže to nepriaznivo ovplyvniť indexovanie stránky.

    Ak každý deň pridám 1 alebo viac nových jedinečných správ, vyrieši sa tento problém?

    To nie je problém. Vyhľadávač potrebuje čas na nájdenie všetkých stránok webu. Dôvodov, prečo stránka dlho neindexuje žiadne stránky, môže byť veľa. Ťažko povedať, v čom je problém, keď nepoznáte ani adresu webovej stránky. Ale podľa vášho príspevku sa vaša stránka indexuje normálne, ale nie tak rýchlo, ako by ste chceli. Skôr či neskôr budú všetky stránky vášho webu indexované – musíte len počkať

    Ďakujeme za jasnú prezentáciu informácií!

    Chcel by som vám však položiť otázku: čo robiť, ak vyhľadávač čiastočne indexuje stránku? Presnejšie, z nejakého dôvodu adresa z nejakého dôvodu nepresahuje 3. úroveň, hoci všetok jedinečný obsah sa nachádza na 3.-4.

    Čo robiť, ak vyhľadávač čiastočne indexuje stránku? Presnejšie, z nejakého dôvodu adresa z nejakého dôvodu nepresahuje 3. úroveň, hoci všetok jedinečný obsah sa nachádza na 3.-4.

    Ostáva už len jediné – urobiť všetko pre urýchlenie indexovania pomocou metód uvedených v tomto článku a následne počkať na indexovanie stránok. Ak sa stránky do 1-2 mesiacov nedostanú do indexu, niečo nie je v poriadku - možno niečo bráni indexovaniu stránky. V prvom rade skontrolujte súbor robots.txt – veľmi často je to práve nesprávne nakonfigurovaný súbor robots.txt, ktorý bráni stránke v indexovaní stránok. Ak má napríklad stránka 3. úrovne názov /indeksaciya-sajta/pochemu-sajt-ne-indeksiruetsya.html a v súbore robots.txt je zapísané Disallow: /indeksaciya-sajta, je nepravdepodobné, že by táto stránka bola niekedy indexovaná .

    Dobrý deň, ešte raz by som sa chcel spýtať na skript, ktorý blokuje pravé tlačidlo na stránke, kopírovanie a presúvanie obrázkov, tu je:

    document.ondragstart = test;

    //zakázať ťahanie

    document.onselectstart = test;

    //zákaz výberu prvkov stránky

    document.oncontextmenu = test;

    //vypnutie kontextovej ponuky

    test funkcie () (

    Iba skript z nejakého dôvodu nie je úplne vložený!

    Nevložené, pretože pri pridávaní komentára sa automaticky vymažú kódy, kde sú príkazy uzavreté v zátvorkách< >. Ak by bol kód vložený tak, ako je, na tejto stránke by tento skript fungoval. Opravil som to podľa potreby.

    Nainštaloval som si to sám a zatvoril som know s indexom, nepoškodí to stránku? Roboty s ním normálne indexujú stránku? Nainštaloval som ho preto, aby som mal aspoň 80% istotu, že obyčajný copy-paster, ktorý zarába na filehostingu, neukradne unikát.

    Je zbytočné zatvárať tento kód pomocou noindex, pretože umiestňuje sa medzi značky a je lepšie odstrániť .noindex. JavaScript sa dá v prehliadači jednoducho zakázať a kopírovanie obsahu potom nebude náročné. Jediný spôsob, ako ochrániť obsah, je nechať si ho notársky overiť a sledovať, aby ho neukradli z iných stránok. Roboty by mali bežne indexovať takéto stránky.

    Vaša stránka nebola indexovaná z dôvodu zákazu v súbore robots.txt.?

    povedz mi, čo mám robiť? pliiizzz

    Vysvetlite mi prosím čo sa stalo???

    Eugene, máte stránku na uCoze, musíte prejsť na „platené služby“ v PU a kúpiť si tam balík za 3 doláre platených služieb na mesiac a súbor Robots.txt umožní indexovanie stránok.

    Dobrý deň! Stránka bola zverejnená pred týždňom. žiadne indexovanie. stránka je zaregistrovaná prostredníctvom správcu webu na Yandex. ale stále nie je indexovaný. upresnenie - doména bola kúpená pred rokom, môže to ovplyvniť túto situáciu?

    Dobrý deň! Stránka bola zverejnená pred týždňom. žiadne indexovanie. stránka je zaregistrovaná prostredníctvom správcu webu na Yandex. ale stále nie je indexovaný. upresnenie - doména bola kúpená pred rokom, môže to ovplyvniť túto situáciu?

    Fakt, že doména bola kúpená už dávno, by v žiadnom prípade nemal ovplyvniť indexovanie stránky. Teraz, ak mal web rok alebo viac len jednu stránku a bola indexovaná, indexovanie sa môže oneskoriť, pretože. vyhľadávacie roboty v tomto prípade málokedy navštívia stránku, pretože vedia, že stránka má len jednu stránku a nemá zmysel ju často navštevovať. Ak stránka nebola predtým indexovaná, nie je sa čoho obávať - ​​ak ste urobili všetko správne, do 2-3 týždňov by mala byť stránka indexovaná. Uplynul iba jeden týždeň - vo väčšine prípadov sú stránky indexované v Yandex nie skôr ako za 2 týždne.

    www.ikanta.com

    dva mesiace na stránku a stále neindexuje Yandex. nie je jasné z akého dôvodu. poslal Platónovi tri listy. odpovedali len na poslednú - píšu - prepáčte, že dlho neodpovedali, ďakujeme za signál, určite prídeme na to, čo je zlé a prečo nie je indexovanie. a je to :) super odpoveď. k indexovaniu nikdy nedošlo

    www.ikanta.com

    dva mesiace na stránku a stále neindexuje Yandex. nie je jasné z akého dôvodu. poslal Platónovi tri listy. odpovedali len na poslednú - píšu - prepáčte, že dlho neodpovedali, ďakujeme za signál, určite prídeme na to, čo je zlé a prečo nie je indexovanie. a je to :) super odpoveď. k indexovaniu nikdy nedošlo

    Po 1-2 týždňoch vám Yandex odpovie, prečo stránka nie je indexovaná. List, ktorý ste dostali, sa posiela každému, kto poslal list Platónovi - je to automatické.

    Váš web obsahuje iba prázdne stránky. Yandex nemá rád takéto stránky. Na vašej stránke by som urobil aspoň 10 informačných stránok. Odpovedal by som aj na otázky, aby stránky nepozostávali z otázok bez odpovedí. V tomto prípade bude vaša stránka pravdepodobnejšie indexovaná.

    Po 1-2 týždňoch vám Yandex odpovie, prečo stránka nie je indexovaná. List, ktorý ste dostali, sa posiela každému, kto poslal list Platónovi - je to automatické.

    Vďaka za odpoveď. Prepáčte, ale čo tým myslíte - stránka pozostáva z prázdnych stránok? Stránka má momentálne 260 otázok a 160 odpovedí. Nie sú 160 odpovedí informačné stránky? Ak nie, čo tým myslíš. Vďaka za odpoveď

    Vďaka za odpoveď. Prepáčte, ale čo tým myslíte - stránka pozostáva z prázdnych stránok? Stránka má momentálne 260 otázok a 160 odpovedí. Nie sú 160 odpovedí informačné stránky? Ak nie, čo tým myslíš. Vďaka za odpoveď

    Myslel som stránky, kde sú len otázky. Ukazuje sa, že z 260 - 100 stránok na vašom webe je prázdnych. Myslel som, že máš menej odpovedí. Potom zistí, že váš web má 160 strán s 200 – 700 znakmi a 100 prázdnych strán bez odpovedí. V zásade je 160 odpovedí normálne číslo na indexovanie, aj keď majú krátke odpovede. Je však žiaduce mať na webe aspoň 7-10 strán s 2000-3000 znakmi. Navyše tieto stránky by nemali byť niekde v archíve odpovedí, ale treba si spraviť statické stránky, odkazy na ktoré treba dať niekde v menu, aby to boli stránky 2. úrovne. Stránky úrovne 2 sú tie, ktoré sú prepojené z hlavnej stránky. Stránky úrovne 3 sú tie, na ktoré sa odkazuje zo stránok úrovne 2. To preto, aby bolo jasné, o čom hovorím. Aké stránky je možné vytvoriť? No napríklad:

    Aké otázky si ľudia najčastejšie kladú?

    Ako položiť správnu otázku?

    Čo ak nemôžete nájsť odpoveď na otázku?

    Väčšina zaujímavé otázky a odpovede na ne

    Často kladené otázky malých detí

    Aké otázky sú stále nezodpovedané

    Aj sedem takýchto strán bude stačiť.

    Toto som ja, takže prvé, čo ma napadlo, som hodil na príklad.

    Tieto položky ponuky je možné vložiť do pravého stĺpca alebo vytvoriť ľavý stĺpec. V sekcii "Články" môžete pridať aj iné zaujímavé články o všetkom na svete. Vo všeobecnosti je úlohou toto - zabezpečiť, aby stránka mala okrem stránok s krátkym textom aj informačné stránky s 2000-3000 znakmi. Nemusí ich byť veľa, ale minimálne množstvo takéto stránky by mali byť. To je dobré z hľadiska optimalizácie stránok. No v zásade takéto stránky neprekážajú.

    Tieto položky ponuky je možné vložiť do pravého stĺpca alebo vytvoriť ľavý stĺpec. V sekcii „Články“ môžete pridávať aj rôzne zaujímavé články o všetkom na svete. Vo všeobecnosti je úlohou toto - zabezpečiť, aby stránka mala okrem stránok s krátkym textom aj informačné stránky s 2000-3000 znakmi. Nie je nutné, aby ich bolo veľa, no minimálny počet takýchto strán by mal byť. To je dobré z hľadiska optimalizácie stránok. No v zásade takéto stránky neprekážajú.

    Veľmi pekne ti ďakujem za tvoju pomoc! Predná časť práce je načrtnutá, pustím sa do práce. Ak máte záujem, podľa výsledkov sa tu môžem odhlásiť - čo sa dialo po vykonanej práci.

    Veľmi pekne ti ďakujem za tvoju pomoc! Predná časť práce je načrtnutá, pustím sa do práce. Ak máte záujem, podľa výsledkov sa tu môžem odhlásiť - čo sa dialo po vykonanej práci.

    Budem rád, ak o výsledkoch svojej práce poviete v tomto príspevku. Budem čakať na správy od vás o vašej stránke.)

    Na vašej stránke som si tiež všimol, že adresy stránok pozostávajú z ruských znakov – azbuky, napr.: ikanta.com/453/olympic-games-where-it-went. To je tiež nežiaduce. Všetky strany je lepšie pomenovať latinkou, t.j. takto: ikanta.com/453/olimpiiskie-games-otkud-poshlo.

    Vzhľadom na to, že názvy stránok vašej lokality pozostávajú z azbuky. Tiež to sťažuje indexovanie stránok.

    Ak Platón odpovie, že ich algoritmy sa rozhodli neprijať vašu stránku do vyhľadávania, najskôr stránku aktualizujte a potom znova napíšte Platónovi. Povedzme, že ste identifikovali všetky chyby stránky a teraz spĺňa požiadavky vyhľadávacieho nástroja Yandex. Ak vaša stránka opäť neprejde moderovaním, opravte ďalšie chyby a znova napíšte Platónovi. A tak ďalej, kým sa váš web nedostane do indexu.

    Dobrý deň

    Problém je v tom, že predtým to bolo normálne indexované v Yandex. So zmenou domény bola stará stránka odstránená správcovi webu, pridaná nová. Uplynul mesiac, ale „Stiahnuté stránky“ stále zobrazuje „1“.

    V Google, ako tomu rozumiem, je stránka indexovaná. Ale v Yandex zjavne nechce ...

    Môžete mi navrhnúť, čo sa deje? Vopred ďakujem!

  • Dobrý deň

    Prvýkrát som sa začal venovať plneniu vlastnej webovej stránky, predtým som pracoval ako copywriter, teda písal som pre iných. Najprv bola stránka umiestnená na doméne 3 ur a pred mesiacom bola prevedená na normálnu doménu. Adresa webovej stránky cool2.ru

Mnohí používatelia, najmä začiatočníci, kladú rovnaké otázky na rôznych fórach, stránkach - prečo stránky nie sú indexované vyhľadávačmi Yandex a Google, alebo prečo je stránka zle indexovaná alebo stránka úplne prestala indexovať. V tomto ohľade sa odvíjajú obrovské spory, pretože na to môže byť veľa dôvodov a nie je možné okamžite odpovedať, budete musieť analyzovať svoj zdroj a identifikovať konkrétny dôvod.

Pozrime sa preto na najčastejšie dôvody, prečo vaša stránka nemusí byť indexovaná, prípadne môže z indexu úplne vyletieť.

Prečo nie je stránka indexovaná vyhľadávačmi?

Urýchlite indexovanie. Nezabudnite, že vaše stránky sa indexujú rýchlejšie, musíte pridať záložky a ďalšie služby.

Do vyhľadávača môžete pridať aj odkaz na adduril, no niektorí hovoria, že v tomto prípade vyhľadávač zaradí vašu stránku na koniec poradia na indexovanie. Aj keď, ak vašu stránku dlho nenavštívil vyhľadávací robot, mali by ste to urobiť.

Súboroví roboti. TXT. Váš súbor robots.txt možno nie je správne zložený, takže ho musíte skontrolovať (možno je v ňom stránka na indexovanie alebo celá lokalita zatvorená).

Meta tagy. Možno je indexovanie vašej stránky zablokované pomocou metaznačiek, ako napríklad: none, noindex, nofollow atď. Situáciu je potrebné skontrolovať a opraviť.

Vírus na stránke. Môže sa stať, že sa na vašej stránke usadil vírus, a preto vypadol z výsledkov vyhľadávania, alebo nie je vôbec indexovaný, takže by ste mali.

Štruktúra. Štruktúra vašej webovej stránky nie je vôbec správna. Možno je porušené pravidlo troch kliknutí. To znamená, že aby ste sa dostali ku konkrétnemu článku na webe (stránke), musíte urobiť viac ako tri kliknutia.

Hosting. Môže sa stať, že ten váš robí nejakú prácu, v súvislosti s tým sa vyhľadávač nemôže dostať na stránku (vyhľadávací robot nemá prístup na stránku) a dochádza k chybám tohto druhu. Ak vyhľadávací robot Yandex nemá prístup na stránku, prečítajte si ju.

doména. Môže sa tiež stať, že ste si kúpili svoju doménu, ktorá bola sankcionovaná vyhľadávačmi. Pred zakúpením domény je potrebné overiť jej názov.

Obsah stránky. Najčastejším dôvodom, prečo vaša stránka nie je indexovaná, je, že obsahuje nejedinečný obsah. Pre stránku by ste mali napísať kvalitný a jedinečný obsah a nekopírovať ho od iných.

Ako skontrolovať stránku v indexe vyhľadávača?

Existuje veľa možností, veľa služieb, ale najjednoduchšie je skopírovať časť článku (jeho názov alebo URL) a vložiť ho do vyhľadávacieho panela a nájsť ho. Ak sa vaša stránka objaví na prvých stránkach vyhľadávania, potom je indexovaná, ak nie, tak bohužiaľ.

Čo je indexovanie? Toto je proces, ako dostať obsah stránok vašej lokality do robota a zahrnúť tento obsah do výsledkov vyhľadávania. Ak sa obrátime na čísla, potom databáza indexovacieho robota obsahuje bilióny adries stránok. Každý deň si robot vyžiada miliardy takýchto adries.

Celý tento veľký proces indexovania internetu však možno rozdeliť do malých krokov:


Po prvé, indexovací robot potrebuje vedieť, kedy sa stránka na vašom webe objavila. Napríklad indexovaním iných stránok na internete, hľadaním odkazov alebo stiahnutím setu nemp. Dozvedeli sme sa o stránke, po ktorej plánujeme túto stránku obísť, odoslať dáta na váš server, aby sme si vyžiadali túto stránku webu, získať obsah a zahrnúť ho do výsledkov vyhľadávania.

Celý tento proces je proces výmeny indexovacieho robota s vašou stránkou. Ak sa požiadavky odoslané indexovacím robotom prakticky nemenia a zmení sa iba adresa stránky, potom odpoveď vášho servera na požiadavku robota na stránku závisí od mnohých faktorov:

  • z vašich nastavení CMS;
  • z nastavení poskytovateľa hostingu;
  • z práce sprostredkovateľského poskytovateľa.

Táto odpoveď sa mení. Po prvé, pri vyžiadaní stránky dostane robot z vašej stránky nasledujúcu servisnú odpoveď:


Toto sú hlavičky HTTP. Obsahujú rôzne servisné informácie, vďaka ktorým je robotovi jasné, aký obsah sa bude teraz prenášať.

Chcem sa zamerať na prvú hlavičku – ide o kód odpovede HTTP, ktorý indexovaciemu robotovi indikuje stav stránky, ktorú robot požadoval.

Existuje niekoľko desiatok takýchto stavov kódov HTTP:


Budem hovoriť o najpopulárnejších. Najbežnejší kód odpovede je HTTP-200. Stránka je dostupná, dá sa indexovať, zaradiť do výsledkov vyhľadávania, všetko je v poriadku.

Opakom tohto stavu je HTTP-404. Stránka na stránke chýba, nie je čo indexovať, ani nie je čo zahrnúť do vyhľadávania. Pri zmene štruktúry stránok a zmene adries interné stránky odporúčame nastaviť server 301 na presmerovanie. Akurát robotovi oznámi, že stará stránka sa presťahovala na novú adresu a novú adresu je potrebné zahrnúť do výsledkov vyhľadávania.

Ak sa obsah stránky od poslednej návštevy robota nezmenil, je najlepšie vrátiť kód HTTP-304. Robot pochopí, že nie je potrebné aktualizovať stránku vo výsledkoch vyhľadávania a obsah sa tiež neprenesie.

Keď je vaša stránka dostupná na krátky čas, napríklad pri vykonávaní nejakej práce na serveri, je najlepšie nakonfigurovať HTTP-503. Naznačí robotovi, že stránka a server nie sú teraz dostupné, musíte ísť o niečo neskôr. V prípade krátkodobej nedostupnosti to zabráni vylúčeniu stránok z výsledkov vyhľadávania.

Okrem týchto HTTP kódov, stavov stránok, potrebujete získať priamo aj obsah samotnej stránky. Ak pre bežného návštevníka stránka vyzerá takto:


toto sú obrázky, text, navigácia, všetko je veľmi pekné, potom je pre indexujúceho robota každá stránka len súborom zdrojového kódu, HTML kódu:


Rôzne meta tagy, textový obsah, odkazy, skripty, množstvo informácií. Robot ho zozbiera a zaradí do výsledkov vyhľadávania. Zdá sa, že všetko je jednoduché, vyžiadali si stránku - dostali stav, dostali obsah, zaradili ho do vyhľadávania.

Nie nadarmo však vyhľadávacia služba v Yandex dostáva viac ako 500 listov od správcov webu a vlastníkov stránok, v ktorých sa uvádza, že s odpoveďou servera sa vyskytli určité problémy.

Všetky tieto problémy možno rozdeliť do dvoch častí:

Ide o problémy s kódom odpovede HTTP a problémy s kódom HTML, s priamym obsahom stránok. Príčin týchto problémov môže byť veľa. Najčastejšie ide o zablokovanie indexovacieho robota poskytovateľom hostingu.


Napríklad ste spustili webovú stránku, pridali novú sekciu. Robot začne navštevovať vašu stránku častejšie, zvyšuje zaťaženie servera. Poskytovateľ hostingu to vidí na svojom monitorovaní, zablokuje indexovacieho robota, a preto sa robot nemôže dostať na vašu stránku. Prejdete na svoj zdroj - všetko je v poriadku, všetko funguje, stránky sú krásne, všetko sa otvára, všetko je super, robot nemôže súčasne indexovať stránku. Ak je stránka dočasne nedostupná, napríklad ak ste zabudli zaplatiť za názov domény, stránka sa na niekoľko dní deaktivuje. Robot príde na stránku, nie je dostupný, za takýchto podmienok môže doslova po chvíli zmiznúť z výsledkov vyhľadávania.

Nesprávne nastavenie CMS, napríklad pri aktualizácii alebo prechode na iný CMS, pri aktualizácii dizajnu môže tiež spôsobiť zmiznutie stránok vášho webu z výsledkov vyhľadávania, ak sú nastavenia nesprávne. Napríklad prítomnosť zakázanej metaznačky v zdrojovom kóde stránok, nesprávne nastavenie kanonického atribútu. Skontrolujte, či po všetkých zmenách, ktoré vykonáte na stránke, sú stránky dostupné pre robota.

Nástroj v Yandex vám s tým pomôže. Webmaster na kontrolu odpovede servera:


Môžete vidieť, aké HTTP hlavičky vracia váš server robotovi, priamo obsah stránok.


Sekcia „indexovanie“ obsahuje štatistiky, kde môžete vidieť, ktoré stránky sú vylúčené, dynamiku zmien týchto ukazovateľov a vykonávať rôzne triedenie a filtrovanie.


Dnes som tiež hovoril o tejto sekcii, sekcii „diagnostika lokality“. Ak sa vaša stránka stane pre robota nedostupná, dostanete upozornenie a odporúčania. Ako sa to dá napraviť? Ak takéto problémy nie sú, stránka je dostupná, reaguje na kódy-200, obsahuje správny obsah, potom robot začne automaticky navštevovať všetky stránky, ktoré rozpozná. Nie vždy to vedie k želaným následkom, takže činnosť robota môže byť určitým spôsobom obmedzená. Na to existuje súbor robots.txt. Povieme si o tom v ďalšej časti.

Robots.txt

Samotný súbor robots.txt je malý textový dokument, nachádza sa v koreňovom priečinku stránky a obsahuje prísne pravidlá pre indexovacieho robota, ktoré je potrebné dodržiavať pri prehľadávaní stránky. Výhody súboru robots.txt sú v tom, že na jeho používanie nie sú potrebné špeciálne a špeciálne znalosti.

Stačí otvoriť Poznámkový blok, zadať určité pravidlá formátu a potom súbor jednoducho uložiť na server. Počas dňa začne robot tieto pravidlá používať.

Ak si vezmeme príklad jednoduchého súboru robots.txt, tu je, len na ďalšej snímke:


Direktíva User-Agent:“ ukazuje, pre ktoré roboty je pravidlo určené, direktívy povoliť/odmietnuť a pomocné direktívy Sitemap a Host. Trochu teórie, chcem prejsť k praxi.

Pred pár mesiacmi som si chcel kúpiť krokomer, tak som sa obrátil na Yandex. Trh o pomoc s výberom. Presunuté z hlavnej stránky Yandex na Yandex. Market a dostali sa na hlavnú stránku služby.


Nižšie vidíte adresu stránky, na ktorú som išiel. K adrese samotnej služby pribudol aj identifikátor mňa, ako užívateľa na stránke.

Potom som prešiel do sekcie "katalóg".


Vybrali ste požadovanú podsekciu a nakonfigurovali možnosti triedenia, cenu, filter, spôsob triedenia, výrobcu.

Dostal som zoznam produktov a adresa stránky sa už rozrástla.

Prešiel som na požadovaný produkt, klikol na tlačidlo „pridať do košíka“ a pokračoval v pokladni.

Počas môjho krátkeho výletu sa adresy stránok určitým spôsobom menili.


Boli k nim pridané parametre služby, ktoré ma identifikovali ako používateľa, nastavili triedenie, naznačili majiteľovi stránky, odkiaľ som išiel na tú či onú stránku webu.

Takéto stránky, stránky služieb, myslím, nebudú pre používateľov vyhľadávačov príliš zaujímavé. Ale ak sú dostupné indexovaciemu robotovi, môžu sa dostať do vyhľadávania, pretože robot sa v skutočnosti správa ako používateľ.

Prejde na jednu stránku, uvidí odkaz, na ktorý môžete kliknúť, prejde naň, načíta údaje do svojej databázy robotov a pokračuje v obchádzaní celého webu. Rovnaká kategória takýchto adries môže zahŕňať aj osobné údaje používateľov, napríklad informácie o doručení alebo kontaktné údaje používateľov.

Prirodzene, je lepšie ich zakázať. Práve na to vám pomôže súbor robots.txt. Na svoj web môžete prísť už dnes večer po skončení Webmastera, kliknúť, pozrieť sa, ktoré stránky sú naozaj dostupné.

Ak chcete skontrolovať súbor robots.txt, v správcovi webu existuje špeciálny nástroj:


Môžete si stiahnuť, zadať adresy stránok, zistiť, či sú robotovi k dispozícii alebo nie.


Urobte nejaké zmeny a uvidíte, ako robot na tieto zmeny zareaguje.

Chyby pri práci so súborom robots.txt

Okrem takého pozitívneho vplyvu - zatváranie stránok služby, môže robots.txt pri nesprávnom zaobchádzaní hrať krutý vtip.

Po prvé, najčastejším problémom pri používaní robots.txt je zatváranie stránok webu, ktoré sú skutočne potrebné, tie, ktoré by sa mali vyhľadávať a zobrazovať na požiadanie. Pred vykonaním zmien v súbore robots.txt skontrolujte, či sa stránka, ktorú chcete zavrieť, nezúčastňuje, či sa zobrazuje pre dopyty vo vyhľadávaní. Možno je vo výsledkoch vyhľadávania stránka s nejakými parametrami a návštevníci na ňu prichádzajú z vyhľadávania. Preto pred použitím a vykonaním zmien v súbore robots.txt skontrolujte.

Po druhé, ak sa na vašom webe používajú adresy v azbuke, nebudete ich môcť zadať priamo v súbore robots.txt, musia byť zakódované. Keďže robots.txt je medzinárodný štandard, všetky indexovacie roboty sa ním riadia, určite ich bude potrebné zakódovať. Azbuku nemožno explicitne špecifikovať.

Tretím najpopulárnejším problémom sú rôzne pravidlá pre rôzne roboty rôznych vyhľadávačov. Pre jedného indexovacieho robota boli zatvorené všetky indexovacie stránky, pre druhého nebolo zatvorené vôbec nič. Výsledkom je, že v jednom vyhľadávači je všetko v poriadku, stránka, ktorú potrebujete, je vo vyhľadávaní a v inom vyhľadávači môže byť odpad, rôzne odpadkové stránky, niečo iné. Ak nastavíte zákaz, určite to dodržujte, musí to byť vykonané pre všetkých indexovacích robotov.

Štvrtým najčastejším problémom je použitie smernice Crawl-delay, keď to nie je potrebné. Táto smernica umožňuje ovplyvňovať čistotu dopytov zo strany indexovacieho robota. Toto praktický príklad, malá stránka, umiestnil ju na malý hosting, všetko je v poriadku. Pridali veľký katalóg, prišiel robot, videl kopu nových stránok, začne stránku navštevovať častejšie, zvýši záťaž, stiahne ju a stránka sa stane nedostupnou. Nastavíme direktívu Crawl-delay, robot to vidí, zníži záťaž, všetko je v poriadku, stránka funguje, všetko je indexované perfektne, je vo výsledkoch vyhľadávania. Po určitom čase sa stránka ešte viac rozrastie, presunie sa na nový hosting, ktorý je pripravený zvládnuť tieto požiadavky, s veľkým počtom požiadaviek a zabudne sa odstrániť direktíva Crawl-delay. Výsledkom je, že robot chápe, že na vašom webe sa objavilo veľa stránok, ale nemôže ich indexovať jednoducho kvôli nastavenej direktíve. Ak ste niekedy použili direktívu Crawl-delay, skontrolujte, či je teraz preč a či je vaša služba pripravená zvládnuť záťaž indexovacieho robota.


Okrem opísanej funkcionality vám súbor robots.txt umožňuje vyriešiť aj dve veľmi dôležité úlohy – zbaviť sa duplikátov na stránke a zadať adresu hlavného zrkadla. Presne o tom si povieme v ďalšej časti.

Dvojhra

Duplikátmi rozumieme niekoľko stránok toho istého webu, ktoré obsahujú úplne identický obsah. Najbežnejším príkladom sú stránky s a bez lomky na konci adresy. Tiež duplikát môže byť chápaný ako rovnaký produkt v rôznych kategóriách.

Napríklad kolieskové korčule môžu byť pre dievčatá, pre chlapcov môže byť rovnaký model v dvoch sekciách súčasne. A do tretice sú to stránky s nepodstatným parametrom. Ako v príklade s Yandex. Market tejto stránky "identifikátor relácie", tento parameter v zásade nemení obsah stránky.

Ak chcete zistiť duplikáty, zistiť, na ktoré stránky robot pristupuje, môžete použiť Yandex. Správca webu.


Okrem štatistík sú tu aj adresy stránok, ktoré robot načítal. Vidíte kód a posledný hovor.

Problémy spôsobené duplikátmi

Prečo sú duplikáty zlé?

Po prvé, robot začne pristupovať k úplne identickým stránkam webu, čo vytvára dodatočné zaťaženie nielen na vašom serveri, ale ovplyvňuje aj obchádzanie webu ako celku. Robot začne venovať pozornosť duplicitným stránkam a nie tým stránkam, ktoré je potrebné indexovať a zahrnúť do výsledkov vyhľadávania.


Druhým problémom je, že duplicitné stránky, ak sú pre robota dostupné, sa môžu dostať do výsledkov vyhľadávania a súťažiť s hlavnými stránkami o dopyty, čo samozrejme môže pri určitých dopytoch negatívne ovplyvniť nájdenú stránku.

Ako sa vysporiadať s duplikátmi?

V prvom rade vám odporúčam použiť značku „canonical“, aby ste robota nasmerovali na hlavnú, kanonickú stránku, ktorá by mala byť indexovaná a nájdená vo vyhľadávacích dopytoch.

V druhom prípade môžete použiť presmerovanie servera 301, napríklad pre situácie s lomkou na konci adresy a bez lomky. Nastavili sme presmerovanie – neexistujú žiadne duplikáty.


A do tretice, ako som už povedal, toto je súbor robots.txt. Na zbavenie sa nedôležitých parametrov môžete použiť direktívy vypnúť aj direktívu Clean-param.

Zrkadlá stránok

Druhou úlohou, ktorú vám robots.txt umožňuje vyriešiť, je nasmerovať robota na adresu hlavného zrkadla.


Zrkadlá sú skupina stránok, ktoré sú úplne identické, ako duplikáty, iba dve rôzne stránky. Webmasteri sa zvyčajne stretávajú so zrkadlami v dvoch prípadoch – keď chcú prejsť na novú doménu, alebo keď používateľ potrebuje sprístupniť niekoľko adries stránok.

Napríklad viete, že používatelia, keď zadajú vašu adresu, adresu vášho webu do panela s adresou, často urobia rovnakú chybu – prepíšu, vložia nesprávny znak alebo niečo iné. Môžete si zakúpiť ďalšiu doménu, aby ste používateľom ukázali, že to nie je útržok od poskytovateľa hostingu, ale stránka, na ktorú skutočne chceli ísť.

Zastavme sa pri prvom bode, pretože práve s ním vznikajú najčastejšie problémy pri práci so zrkadlami.

Odporúčam vám vykonať celý proces sťahovania podľa nasledujúcich pokynov. Malý návod, ktorý vám umožní vyhnúť sa rôznym problémom pri prechode na nový názov domény:

Najprv musíte stránky sprístupniť indexovaciemu robotovi a umiestniť na ne úplne identický obsah. Tiež sa uistite, že robot vie o existencii stránok. Najjednoduchším spôsobom je pridať ich do Yandex. Správcom webu a potvrďte práva k nim.

Po druhé, pomocou smernice Host nasmerujte robota na adresu hlavného zrkadla - toho, ktorý by mal byť indexovaný a mal by byť vo výsledkoch vyhľadávania.

Čaká nás nalepenie a presun všetkých indikátorov zo starej stránky na novú.


Potom už môžete nastaviť presmerovanie zo starej adresy na novú. Jednoduchý návod, ak sa sťahujete, určite ho použite. Dúfam, že s tým nebudú žiadne problémy
sťahovanie.

Pri práci so zrkadlami sa však samozrejme vyskytujú chyby.

Po prvé, hlavným problémom je nedostatok explicitných inštrukcií pre indexovacieho robota na adresu hlavného zrkadla, adresu, ktorá by mala byť vo vyhľadávaní. Skontrolujte na svojich stránkach, že majú v súbore robots.txt príkaz hostiteľa, ktorý vedie na adresu, ktorú chcete vidieť vo vyhľadávaní.

Druhým najčastejším problémom je použitie presmerovania na zmenu hlavného zrkadla v existujúcej skupine zrkadiel. Čo sa deje? Stará adresa, keďže presmeruje, nie je indexovaná robotom, je vylúčená z výsledkov vyhľadávania. Nová stránka sa zároveň nedostane do vyhľadávania, pretože ide o nehlavné zrkadlo. Strácate návštevnosť, strácate návštevníkov, myslím, že to nikto nepotrebuje.


A tretím problémom je neprístupnosť jedného zo zrkadiel pri pohybe. Najbežnejším príkladom v tejto situácii je situácia, keď bol obsah stránky skopírovaný na novú adresu a stará adresa bola jednoducho deaktivovaná, za názov domény sa nezaplatilo a bola nedostupná. Prirodzene, takéto stránky nebudú lepené, musia byť dostupné pre indexovacieho robota.

Užitočné odkazy v akcii:
  • Viac užitočná informácia nájdete v službe Yandex.Help.
  • Všetky nástroje, o ktorých som hovoril, a ešte viac - existuje beta verzia Yandex.Webmaster.
Odpovede na otázky

Ďakujem za správu. Musím zatvoriť indexovanie súborov CSS pre robota v súbore robots.txt alebo nie?

Momentálne ich neodporúčame zatvárať. Áno, je lepšie nechať CSS, JavaScript, pretože teraz pracujeme na tom, aby indexovací robot rozpoznal skripty na vašej stránke aj štýly, videl to ako návštevník z bežného prehliadača.

"Povedzte mi, ak sú adresy URL stránok rovnaké, pre starú a novú, je to normálne?".

Je to v poriadku. V skutočnosti stačí aktualizovať dizajn, pridať nejaký obsah.

„Stránka má kategóriu a skladá sa z niekoľkých stránok: lomka, strana 1, strana 2, napríklad až 10. Všetky stránky majú jeden text kategórie a ukázalo sa, že je duplicitný. Bude tento text duplikátom alebo by sa mal nejako uzavrieť, nový index na druhej a ďalších stranách?

Po prvé, keďže stránkovanie na prvej strane a obsah na druhej strane sú vo všeobecnosti odlišné, nepôjde o duplikáty. Musíte však počítať s tým, že druhá, tretia a ďalšie stránkovacie stránky sa môžu dostať do vyhľadávania a zobraziť pri akejkoľvek relevantnej požiadavke. Lepšie v stránkovacích stránkach by som odporučil použiť kanonický atribút v lepšom prípade na stránke, ktorá obsahuje všetky produkty, aby robot nezaradil stránkovacie stránky do vyhľadávania. Ľudia veľmi často používajú kanonické na prvej strane stránkovania. Robot príde na druhú stránku, uvidí produkt, uvidí text, nezaradí stránky do vyhľadávania a vďaka atribútu pochopí, že je to prvá stránkovacia stránka, ktorá by mala byť zahrnutá do výsledkov vyhľadávania. Použite kanonický a zatvorte samotný text, myslím, že to nie je potrebné.

Zdroj (video): Ako nastaviť indexovanie stránok- Alexander Smirnov

Magomed Cherbizhev

Zdieľam:

V tomto článku vysvetlíme, prečo Yandex nemôže indexovať konkrétnu stránku na lokalite, sekciu alebo celý projekt. Popísané problémy môžu ovplyvniť indexovanie v Google a v iných vyhľadávačoch. Výpadky stránok z indexu sú vážnym problémom, pretože priamo ovplyvňujú potenciálny počet kliknutí, ktoré môže zdroj získať od vyhľadávačov.

1. Yandex neindexuje stránku úplne

Ak máte novú stránku, nezobrazí sa vo vyhľadávači okamžite - môže to trvať 2-3 týždne až mesiac. Google spravidla nachádza a indexuje nové projekty rýchlejšie, Yandex pomalšie.

Ak prešli 2-3 týždne a Yandex stále neindexuje stránku, je možné, že o tom jednoducho nevie:

  • Pridajte odkaz na stránku v špeciálnom formulári: http://webmaster.yandex.ru/addurl.xml
  • Pridajte stránku do služby Yandex.Webmaster: http://webmaster.yandex.ru
  • Pridajte Yandex.Metrica na svoje stránky
  • Umiestnite na stránku odkazy zo sociálnych sietí a blogov (roboty vyhľadávačov aktívne indexujú nový obsah v sociálnych sieťach a blogy)
  • 1.2. Stará lokalita čiastočne alebo úplne vypadla z indexu

    Tento problém si všimnete porovnaním počtu stránok na webe a počtu stránok v indexe vyhľadávacieho nástroja (môžete ho vidieť prostredníctvom služby Yandex.Webmaster).

    Ak väčšina stránok vypadla z indexu a zostala iba hlavná stránka alebo hlavná stránka a niekoľko interných, problém je s najväčšou pravdepodobnosťou v prekrytom filtri AGS. Yandex považoval obsah vašej stránky za nejedinečný alebo neatraktívny pre používateľov. Je potrebné prepracovať obsah webovej stránky.

    Okrem použitia filtrov nemusí Yandex indexovať stránky z nasledujúcich dôvodov:

  • Náhodne zakázané indexovanie v súbore Robots.txt. Pozrite si jeho obsah.
  • Robot nemá z nejakého dôvodu prístup na stránku nestabilná práca hosting alebo IP adresa robota bola náhodne zakázaná (napríklad stránka odrážala útok DDOS a robot vyhľadávača bol omylom považovaný za útočníka).
  • 2. Yandex neindexuje stránky na webe

    Tento problém je bežnejší ako strata celej lokality z indexu. Z typických problémov, pri ktorých Yandex nemusí indexovať stránku, môžeme zdôrazniť:

  • Robot vyhľadávača sa na stránku nedostane z dôvodu neprehľadnej štruktúry webu resp vysoký stupeň hniezdenie. Pokúste sa uistiť, že sa na ktorúkoľvek stránku webu dostanete dvoma kliknutiami myšou. Vytvorte mapu webu.
  • Na stránke je málo jedinečného, ​​zaujímavého obsahu a vyhľadávač ho nepovažuje za užitočný pre návštevníkov. Skontrolujte jedinečnosť textu, upravte ho, urobte ho užitočnejším.
  • Počet stránok na webe presahuje limit pridelený vyhľadávačom pre projekt. Napríklad Yandex je pripravený indexovať 10 000 stránok z vašej lokality a 15 000 stránok vášho projektu. V každom prípade sa 5 tisíc strán do indexu nedostane. Pokúste sa rozvinúť projekt, aby ste zvýšili limit - a zatvorte nepotrebné stránky služieb z indexovania, aby ste uvoľnili miesto v indexe pre propagované stránky.
  • Neexistujú žiadne odkazy na stránku - vyhľadávač ju preto nemôže nájsť.
  • Indexovanie stránky v súbore Robots.txt je zakázané. Skontrolujte obsah súboru.
  • Stránka obsahuje atribút noindex v metaznačke robots, takže nie je indexovaná vyhľadávačmi. Skontrolujte kód stránky.
  • Menu stránky je vytvorené na flash, ktorý vyhľadávače nespracúvajú. Yandex teda neindexuje stránky lokality, na ktoré sú odkazy skryté vo formáte Flash. Je potrebné vytvoriť alternatívne menu, v ktorom budú odkazy prístupné pre roboty vyhľadávačov.