Miks Yandex ei otsi keelatud teavet? Kiire lehtede indekseerimine Yandexis. - Aeglane dokumentide üleslaadimise kiirus

Kas lõite veebisaidi, kuid ei leia seda otsingumootoritest? Pole probleemi! Sellest artiklist saate teada, kuidas Yandexis ja Google'is saiti võimalikult lühikese aja jooksul indekseerida. Tõenäoliselt pole vaja rääkida kiire otsingumootorite indeksisse sattumise eelistest. Lõppude lõpuks saab igaüks aru, et mida varem tema saiti otsingutulemustes kuvatakse, seda kiiremini ilmuvad uued kliendid. Ja selleks, et see toimiks, peate sisenema otsingumootorite andmebaasi.

Muide, tänu õigele lähenemisele on meie saidi uued materjalid üsna head ja mis kõige tähtsam, otsingumootorid indekseerivad need alati kiiresti. Võib-olla sattusite sellele lehele ka pärast vastava päringu rakendamist otsinguribal. Laulusõnadest liigume edasi praktika juurde.

Kuidas teada saada, kas sait on indekseeritud?

Esimene asi, mida teha, on välja selgitada, kas sait on otsingumootorite poolt indekseeritud. Võib juhtuda, et sait pole lihtsalt teie sisestatud päringu otsingu esimesel lehel. Need võivad olla sagedased päringud, mille kallal peate töötama, mitte ainult kuvatava saidi looma ja käivitama.

Nii et kontrollimiseks uurime kõike otsingumootorid, mis on mõttekas sisestada ( Yandex, Google, Mail, Rambler) ja sisestage otsingupäringu stringi saidi aadress.

Kui teie ressurssi pole veel indekseeritud, ei kuvata otsingutulemustes midagi või ilmuvad muud saidid.

Kuidas saiti Yandexis indekseerida?

Alustuseks ütleme teile, kuidas saiti Yandexis indekseerida. Kuid enne oma ressursi lisamist kontrollige, kas see töötab õigesti, avaneb õigesti kõigis seadmetes ja sisaldab ainult ainulaadset sisu. Näiteks kui lisate saidi arendusetapis, võite lihtsalt filtri alla sattuda – see juhtus meiega üks kord ja pidime terve kuu ootama, kuni Yandex mõistaks, et meil on kvaliteetne sait, ja sanktsioonid tühistada.

Yandexi uuest saidist teavitamiseks vajate ja , esimene tööriist vastutab ressursi kohta lisateabe eest ( piirkond, struktuur, kiirlingid) ja see, kuidas sait orgaanilise väljastamise tulemustes välja näeb, teine ​​saidi andmete kogumiseks ( kohalviibimine, käitumine jne.), mis meie kogemuse kohaselt mõjutab ka saidi indekseerimist ja selle positsiooni otsingus. Ja kindlasti koostage saidiplaan ja määrake see veebihaldurite paneelil.

Kuidas saiti Google'is indekseerida?

Enamasti leiab Google ise kiiresti uued saidid ja suunab need otsingusse, kuid oodata, kuni Google tuleb ja meie eest kogu töö ära teeb, on liiga edev, nii et mõtleme välja, kuidas saiti Google'is indekseerida.

Esiteks on Google'i veebimeistrite juhtpaneel ja . Peame kinni samadest eesmärkidest - anda otsingumootoritele saidi kohta maksimaalset teavet.

Pärast saitide lisamist peaks otsingumootoritel andmete värskendamiseks ja saidi indekseerimiseks kuluma 3–7 päeva.

Soovite alati, et saidi uued lehed ilmuksid otsingutulemustes nii kiiresti kui võimalik, ja selleks on mitu salajast (ja väga lihtsat) viisi, kuidas kiirendada saidi lehtede indekseerimist otsingumootorites.

3. Lõikes 2 kirjeldatud toimingu tegemiseks ainult Google'i otsingumootori jaoks minge otsingukonsooli. Valime "Indekseerimine" ja "Vaata, kuidas Googlebot" - lisage uue lehe aadress ja klõpsake "Indekseerimine", pärast seda taotleme indekseerimist.

Veebisaidi indekseerimise analüüs

Kokkuvõtteks tuleb märkida, et isegi pärast saidi edukat indekseerimist otsingumootorites ei lõpe töö sellega. On vaja perioodiliselt analüüsida saidi indekseerimist ja eemaldada populaarsete päringute jaoks positsioonid. See võimaldab hoida kätt pulsil ja mitte sattuda olukorda, kus märkimisväärne osa maheemissiooni liiklusest lihtsalt kadus.

Nii juhtus paljude vanemate saitidega, mis kasutasid vanu reklaamimeetodeid, kui . Samal ajal teatas Yandex eelnevalt, et käivitab selle algoritmi ja uuesti optimeeritud lehed jäetakse otsingust välja, samas kui Google ei teatanud kunagi uute algoritmide avaldamisest. Seetõttu võimaldab vaid halastamatu kontroll jääda teema juhiks või saada selleks!

Niisiis, olete loonud saidi, täitnud selle ainulaadse sisuga ja seejärel lisanud selle saidi kõige populaarsematesse otsingumootoritesse, nagu Yandex ja Google, kuid sait on mingil põhjusel halvasti või üldse mitte indekseeritud. Selles artiklis räägin teile saidi halva indekseerimise peamistest põhjustest ning annan teile näpunäiteid, mis võivad kiirendada saidi lehtede otsingumootoritesse viimist.

Enne paanikasse sattumist uurime, kui kaua saab saiti indekseerida pärast seda, kui see on otsingumootorites loetletud, ja millal hakata närvi minema.

Enamasti hakatakse saiti indekseerima kuskil 2-4 nädala pärast. Mõnikord isegi kiiremini (isegi järgmisel päeval!). Kui saiti ei indekseerita rohkem kui kuu aega, siis on juba vaja hakata võtma meetmeid, et kõrvaldada põhjused, mis takistavad saidi indekseerimist. Parem on muidugi esialgu veenduda, et selliseid takistusi pole ...

Miks sait ei ole indekseeritud

Esiteks vaatame peamisi põhjuseid, miks saidi indekseerimine võib olla keeruline.

Mitteainulaadne sisu. Leheküljel olevad artiklid peavad olema ainulaadsed, st. neid ei tohiks teistelt saitidelt leida. Eriti otsingumootoritele ei meeldi linke müüvad saidid, mille sisu pole ainulaadne. Sellised saidid varem või hiljem (ja Hiljuti seda juhtub väga sageli) kuuluvad PS-filtri alla, kust on peaaegu võimatu välja pääseda ja selliste saitide lehed kaovad otsingust igaveseks. Kui saidil oli mitteainulaadne sisu, kuid sellel olevaid linke ei müüdud, on võimalus, et sait indekseeritakse ja järjestatakse tavapäraselt pärast seda, kui teie saidile ilmuvad ainulaadsed artiklid.

Uuesti optimeerimine, spämmimine. Ära liialda summaga võtmefraasid artiklis, samuti sildid , , , jne. Kõik peaks välja nägema loomulik ja lihtne.

Halva kvaliteediga sisu. Ma arvan, et pole vaja selgitada, mis on ebakvaliteetne sisu. Igaüks meist teab, millise artikli ta kirjutas - inimestele või otsingurobotidele ...

Sait on teise saidi peegel. See viitab olukorrale, kui on olemas täiesti unikaalse sisuga sait, kuid tähenduse ja struktuuri poolest kopeerib see täielikult või osaliselt teist saiti. Selliseid saite saavad filtreerida ka otsingumootorid. Vähemalt Yandexile sellised saidid väga ei meeldi ja kui ta seda märkab, “liimib” need kõigi saitide “peapeegliga”.

Saidi indekseerimine on failis robots.txt keelatud. Juhtub, et veebihaldur võib kogemata keelata saidi indekseerimise failis robots.txt. Nii et kõigepealt kontrollige seda faili. Kui te ei tea, mis on robots.txt, siis Yandex.Webmasteri teenuse jaotises „Robots.txt kasutamine” on kõik väga hästi kirjeldatud.

Saidi indekseerimine on metasiltide puhul keelatud. Kontrollige kindlasti saidi lehe HTML-koodi. Kui koodis on kood, tähendab see, et otsingurobotidel on keelatud lehekülge indekseerida, nagu näitab käsk noindex, ja lehel olevate linkide järgimine (käsk nofollow). Sarnane metasilt on olemas. See metasilt keelab ka lehel teksti indekseerimise ja linkide järgimise.

Linkide müük saidilt. Yandex ei ole selle vastu, et saidi omanik teenib oma saidilt linke müües vähe (või palju). Kuid kui müüte liiga palju linke (ja kui palju, seda on "liiga palju", teab ainult Yandex), võib see kaasa tuua lehtede massilise kadumise registrist. Samuti peaksite mõistma, et kui soovite saidil linkide müümisega raha teenida, peaks see sait Interneti-kasutajatele tõesti kasulik olema (noh, või vähemalt natuke kasulik) ja loomulikult peaksid saidil olema ainulaadsed artiklid . Ma ei saa sama öelda Google'i kohta. Üldiselt püüab Google'i otsingumootor indekseerida kõike, mis on võimalik ja võimatu – omamoodi indekseerimiskoletis (juhtub, et Google indekseerib linkide olemasolul failis robots.txt ka need lehed, mille indekseerimine on keelatud), kuid ei järjesta kõiki lehti hästi (arvestab). Samuti ollakse arvamusel, et lehe kaal läheb kaotsi, kui sellel on liiga palju välislinke – see on veel üks põhjus, miks saiti MITTE muuta linkide prügikastiks.

Lingi plahvatus. Kui ühel ilusal päeval hakkavad tuhanded ressursid viima korraga tundmatule saidile, võivad otsingumootorid kaasa tuua tõsiseid sanktsioone nii saidi, millele nad viitavad, kui ka viitavate saitide suhtes. Põhimõtteliselt saavad kõik haiget!

Hosting blokeerib otsingumootori robotid. Kahjuks juhtub ka seda. Seega kasutage hea mainega usaldusväärsete hostide teenuseid.

Teie ostetud domeen olid varem otsingumootorite poolt keelatud (blokeeritud). Kui on võimalus uurida ostetud domeeni ajalugu, siis uuri seda kindlasti.

Sait sattus ekslikult PS-filtri alla. Seda ei juhtu nii sageli, kuid juhtub (umbes 1-2% juhtudest). Kui olete kindel, et teie sait vastab kõigile otsingumootorite kvaliteedistandardi nõuetele, võite kirjutada neile kirja ja mõne aja pärast (võimalik, et pärast pikka kirjavahetust) teie sait indekseeritakse.

Paljud muud põhjused, mida on nii palju, et kõik lihtsalt ei mahu ühte artiklisse. Lülitage loogika sisse, analüüsige saiti ja saate ise tuvastada põhjused, mis takistavad saidi PS-is indekseerimist.

Kuidas kiirendada saidi indekseerimist

Kui olete kindel, et teie sait ei riku mängureegleid (nimetagem seda nii), kuid see on siiski üsna pikka aega indekseerimata, siis ei pruugi otsingurobotid teie saiti lihtsalt üles leida. No ei saa ja kõik! Sel juhul peate aitama otsingumootoril teie saidi lehti üles leida, millest räägime järgmisena.

Niisiis, kuidas kiirendada saidi indekseerimist Yandexi ja Google'i otsingumootorites:

3. samm: määrake saidiplaani failis kõik lehed, mida tuleb indekseerida. Paljud veebimeistrid jätavad selle faili tähelepanuta, pidades seda saidi indekseerimisel mitte nii oluliseks, kuid asjata. Mõnikord võib saidi indekseerimisel aidata just saidiplaani fail. Ja ma veendusin selles hiljuti, kui mulle anti tööle 3 saiti, millel oli üks levinud probleem - 6 kuu jooksul oli igal saidil Google'i otsingumootoris ainult 2-3 lehekülge indekseeritud. Pealegi on kõik need saidid juba ammu lisatud Google'i veebihalduri keskusesse ja Yandex.Webmasterisse ning paljud erinevate saitide lehed on juba lingitud. Kummalisel kombel on need saidid juba pikka aega edukalt Yandex PS-is indekseeritud, kuid Google läks neist mingil põhjusel mööda. Seejärel otsustasin lisada saidiplaanifailid kõigile saitidele. Ja mis te arvate - kõigest 2-3 nädala pärast hakati kõiki kolme saiti Google'is indekseerima. Samuti märkasin, et kui lisate saidi veebihalduri paneelile ja määrate samas kohas saidiplaani faili tee, indekseeritakse sait sageli vaid 1 päevaga! Kui te ei tea, mis on saidiplaan, saate selle kohta lugeda. Peaaegu igal mootoril on oma pistikprogrammid, mis genereerivad saidiplaani faili, kuid kui teie mootoril see võimalus puudub, saate luua saidiplaani faili spetsiaalse teenuse, näiteks XML-i saidiplaanide generaatori abil. Lihtsalt sisestage saidi aadress ja klõpsake nuppu Start, seejärel laadige see fail alla ja laadige see ftp kaudu üles oma saidi juurkausta. Seejärel määrake veebihalduri paneelil saidiplaani faili tee.

5. samm (valikuline): kiirendage saidi indekseerimist väliste linkidega. Enamik tõhus meetod saidi indekseerimine väliste linkide abil on tagada, et erinevad (eelistatavalt temaatilised) ajaveebid lingiksid teie saidi kõige olulisematele lehtedele, kuna neid indekseeritakse kõige kiiremini (kui ajaveebi on populaarne ja seda uuendatakse sageli, saab seda indekseerida iga 2 tundi!). Igavesed lingid blogidest saidile (piisab 2-3 lingist lehel) saate Bloguni teenust või muid teenuseid kasutades.

Mida teha, kui sait pole ikka veel indekseeritud?

Kui kõik need näpunäited ei aidanud ja teie saiti pole kuu aja pärast indekseeritud, jääb üle ainult üks asi - kirjutada otsingumootori töötajatele:

  • Kirjutage Yandex. Praktika näitab, et enamikul juhtudel vastavad nad järgmisele: "parandage oma saidi kvaliteeti ...". Kuid ärge heitke meelt, kui teile anti näidisvastus - see tähendab tõenäoliselt ühte asja, et saidi ülevaatamiseks polnud üldse aega. Vajadusel pidage Yandexiga pikka kirjavahetust ja kaitske oma õigusi. Andke neile teada, et hoolite oma saidist. Kui olete täiesti kindel, et teie sait on kvaliteetne, siis varem või hiljem filter sellelt eemaldatakse.
  • Kirjutage Google'ile. Võite esitada Google'ile küsimuse vene keeles, kuid nad vastavad teile inglise keeles ja enamasti standardvastusega. Esimene vastus on umbes selline: „Oleme teie taotluse saidi ülevaatamiseks vastu võtnud... jne. ja nii edasi.". 2. vastus, kui teie saidiga on kõik korras, on umbes selline: „Vaatasime teie saidi üle ja ei leidnud rämpsposti olemasolu. Oodake, kuni sait indekseeritakse.

Lõpetuseks tahaksin teile anda veel ühe nõuande. Ärge andke oma saidi aadressi erinevates foorumites, ajaveebides ja muudes allikates ning ärge öelge kellelegi, et teie saiti pole veel indekseeritud. Ebaausad inimesed saavad seda ära kasutada, varastades teie saidilt kogu sisu. Samuti ei tohiks te kataloogides registreerida indekseerimata saiti, kuna. kataloogiomanikud saavad teie saidilt otsida lehti ja ka varastada saidi lehti.

Soovin teile edukat indekseerimist!

Märkuse populaarsus: 34%

Kui teile saidi materjalid meeldisid ja soovite selle ressursi autorit tänada, kopeerige allolev bännerkood ja kleepige see oma saidi mis tahes lehele.

34 kommentaari postitusele "Miks sait ei ole indekseeritud või mille eest oleks pidanud eelnevalt hoolitsema"

    Tere, punkti 3 arvelt on mul sait ucozis, kuid millegipärast indekseeriti Yandexis ainult 2 lehte ja kuigi seal on faile

    Üldiselt on ucoziga tehtud saidid otsingumootorites üsna hästi indekseeritud tänu suurele usaldusele ucoz'i vastu. Mõnikord piisab vaid saidi lisamisest Yandex.Webmasterisse ja Google Webmaster Centerisse ning sait indekseeritakse probleemideta 2–4 ​​nädala jooksul, kui sellel on muidugi ainulaadne sisu. Proovige lisada XML-saidiplaani fail linkidega saidi lehtedele – võib-olla see aitab. Tõsi, ma ei tea, kas ucozi saitidel on selline võimalus.

    Kui kaua pole saiti indekseeritud?

    Tere. Artikkel on väga hea, aitäh! Aga mul on ikkagi küsimus, millele ükski artikkel vastust ei anna (seda pole kuskil kirjas). Minu uCozi domeeni sait on tasuta ja VAREZ-teemaline. Lisan ainult unikaalseid uudiseid, kirjutan ise, vead on ainult filmide või mängude peategelaste nimedes ehk otsingumootor ei tea neid nimesid ega fraase. Yandexi robotid jätavad sageli mõne uudise vahele, lisan 10 ainulaadset filmi ja jätan 2 vahele! See lihtsalt jätab vahele ja pole probleemis. Mõnikord mõne kuu pärast märkab ta neid lehti, mõnikord mitte. Samuti peate uute uudiste skannimiseks ootama nädal kuni 2 kuud. Muidugi, seetõttu lisan ma neid HARU, tegelikult on küsimus: kui ma lisan iga päev ühe või enama uue ainulaadse uudise, kas see probleem lahendatakse? Saidil on 2 saidiplaani xml kaarti yukozi enda põhjast ja tegelik manuaalne kaart, sellel on lingid kõikidele indekseerimist vajavatele lehtedele (paigaldasin selle alles pärast 3 kuud saidi loomist. Ja nüüd sait on juba 7 kuud vana)

    vead ainult filmide või mängude peategelaste nimedes, see tähendab, et otsingumootor ei tea neid nimesid ega fraase

    Kas teete neid vigu meelega? Parem on, kui kõik nimed on õiged. Otsingumootorid teavad endiselt suuremat osa nimedest ja pealkirjadest ning kui nimi on otsingusse valesti sisestatud, siis PS parandab selle automaatselt. Kui saidil on palju valesid nimesid ja vigu, võib see saidi indekseerimist negatiivselt mõjutada.

    Kui ma lisan iga päev ühe või mitu uut unikaalset uudist, kas see probleem laheneb?

    See pole probleem. Otsingumootor vajab lihtsalt aega, et leida saidi kõik leheküljed. Põhjuseid, miks sait pikka aega ühtegi lehte ei indekseeri, võib olla palju. Raske on öelda, milles probleem on, kui te isegi veebisaidi aadressi ei tea. Kuid teie postituse põhjal otsustades indekseeritakse teie saiti tavaliselt, kuid mitte nii kiiresti, kui soovite. Varem või hiljem indekseeritakse kõik teie saidi lehed - peate lihtsalt ootama

    Aitäh selge teabe esitamise eest!

    Kuid ma tahaksin esitada teile küsimuse: mida teha, kui otsingumootor indekseerib saidi osaliselt? Täpsemalt, millegipärast ei ulatu aadress millegipärast 3. tasemest kaugemale, kuigi kogu unikaalne sisu asub 3.-4. astmel...

    Mida teha, kui otsingumootor indekseerib saidi osaliselt? Täpsemalt, millegipärast ei ulatu aadress millegipärast 3. tasemest kaugemale, kuigi kogu unikaalne sisu asub 3.-4. astmel...

    Jääb üle vaid üks asi - teha kõik, et kiirendada indekseerimist, kasutades selles artiklis esitatud meetodeid, ja seejärel oodata, kuni lehed indekseeritakse. Kui 1-2 kuu jooksul lehed registrisse ei satu, siis on midagi valesti - võib-olla takistab miski saidi indekseerimist. Kõigepealt kontrollige faili robots.txt – sageli on see valesti seadistatud fail robots.txt, mis takistab saidil lehekülgi indekseerimast. Näiteks kui 3. taseme lehe nimi on /indeksaciya-sajta/pochemu-sajt-ne-indeksiruetsya.html ja failis robots.txt on kirjutatud Disallow: /indeksaciya-sajta, siis seda lehte tõenäoliselt kunagi ei indekseerita .

    Tere jälle, tahaksin küsida skripti, mis blokeerib lehel parema nupu, piltide kopeerimise ja lohistamise, siin see on:

    document.ondragstart = test;

    //lohistamise keelamine

    document.onselectstart = test;

    //lehe elementide valiku keeld

    document.oncontextmenu = test;

    //Keela kontekstimenüü

    funktsiooni test() (

    Ainult skript pole mingil põhjusel täielikult sisestatud!

    Pole sisestatud, sest kommentaari lisamisel kustutatakse automaatselt koodid, kus sulgudes on käsud< >. Kui kood oleks sisestatud sellisel kujul, nagu see on, siis sellel lehel, siis see skript töötaks. Parandasin vastavalt vajadusele.

    Paigaldasin selle ise ja sulgesin teadmise indeksiga, kas see ei kahjusta saiti? Tavaliselt indekseerivad robotid lehe sellega? Installisin selle selleks, et olla vähemalt 80% kindel, et failimajutuse pealt teenivad tavalised kopeerijad ei varasta unikaalset.

    Seda koodi on mõttetu sulgeda noindexiga, sest see asetatakse siltide vahele ja parem on .noindex eemaldada. JavaScripti saab brauseris lihtsalt keelata ja siis pole sisu kopeerimine keeruline. Ainus viis sisu kaitsmiseks on see notariaalselt kinnitada ja seda jälgida, et seda ei varastataks teistelt saitidelt. Tavaliselt peaksid robotid selliseid lehti indekseerima.

    Teie saiti ei indekseeritud faili robots.txt keelu tõttu.?

    ütle mulle mida teha?? pliiizzz

    Palun selgitage, mis juhtus???

    Eugene, teil on sait uCoze'is, peate minema PU-s "tasuliste teenuste" juurde ja ostma sealt paketi hinnaga 3 dollarit tasulised teenused kuuks ajaks ja fail Robots.txt võimaldab lehtede indekseerimist.

    Tere päevast! Sait postitati nädal tagasi. ei mingit indekseerimist. sait on registreeritud Yandexi veebimeistri kaudu. kuid siiski pole indekseeritud. täpsustus - domeen osteti aasta tagasi, kas see võib seda olukorda mõjutada?

    Tere päevast! Sait postitati nädal tagasi. ei mingit indekseerimist. sait on registreeritud Yandexi veebimeistri kaudu. kuid siiski pole indekseeritud. täpsustus - domeen osteti aasta tagasi, kas see võib seda olukorda mõjutada?

    Asjaolu, et domeen osteti kaua aega tagasi, ei tohiks kuidagi saidi indekseerimist mõjutada. Nüüd, kui saidil oli ainult üks leht aasta või kauem ja see oli indekseeritud, võib indekseerimine edasi lükata, kuna. otsingurobotid külastavad sel juhul saiti harva, sest nad teavad, et saidil on ainult üks leht ja seda pole mõtet sageli külastada. Kui saiti pole varem indekseeritud, pole põhjust muretsemiseks - 2-3 nädala pärast, kui tegite kõik õigesti, tuleks sait indekseerida. Möödunud on ainult üks nädal - enamikul juhtudel indekseeritakse saidid Yandexis mitte varem kui 2 nädala pärast.

    www.ikanta.com

    kaks kuud saidile ja pole ikka veel Yandexi indekseerinud. pole selge, mis põhjusel. saatis Platonile kolm kirja. nad vastasid ainult viimasele - nad kirjutavad - vabandust, et nad pikka aega ei vastanud, täname signaali eest, me kindlasti selgitame välja, mis on valesti ja miks indekseerimist pole. ja kõik :) suurepärane vastus. indekseerimist pole kunagi toimunud

    www.ikanta.com

    kaks kuud saidile ja pole ikka veel Yandexi indekseerinud. pole selge, mis põhjusel. saatis Platonile kolm kirja. nad vastasid ainult viimasele - nad kirjutavad - vabandust, et nad pikka aega ei vastanud, täname signaali eest, me kindlasti selgitame välja, mis on valesti ja miks indekseerimist pole. ja kõik :) suurepärane vastus. indekseerimist pole kunagi toimunud

    1-2 nädala pärast vastab Yandex teile, miks saiti ei indekseerita. Teie saadud kiri saadetakse kõigile, kes saatsid kirja Platonile – see on automaatne.

    Teie sait koosneb ainult tühjadest lehtedest. Yandexile sellised saidid ei meeldi. Ma teeksin teie saidile vähemalt 10 teabelehte. Samuti annaksin vastused küsimustele, et lehed ei koosneks vastusteta küsimustest. Sel juhul indekseeritakse teie sait tõenäolisemalt.

    1-2 nädala pärast vastab Yandex teile, miks saiti ei indekseerita. Teie saadud kiri saadetakse kõigile, kes saatsid kirja Platonile – see on automaatne.

    Aitäh vastuse eest. Vabandage, aga mida sa sellega mõtled – sait koosneb tühjadest lehtedest? Saidil on hetkel 260 küsimust ja 160 vastust. Kas 160 vastust pole mitte informatiivsed lehed? Kui ei, siis mida sa sellega mõtled. Aitäh vastuse eest

    Aitäh vastuse eest. Vabandage, aga mida sa sellega mõtled – sait koosneb tühjadest lehtedest? Saidil on hetkel 260 küsimust ja 160 vastust. Kas 160 vastust pole mitte informatiivsed lehed? Kui ei, siis mida sa sellega mõtled. Aitäh vastuse eest

    Ma pidasin silmas lehti, kus on ainult küsimused. Selgub, et teie saidi 260–100 leheküljest on tühjad. Arvasin, et teil on vähem vastuseid. Siis saab ta aru, et teie saidil on 160 lehekülge 200–700 tähemärgiga ja 100 tühja lehte, millel pole vastuseid. Põhimõtteliselt on 160 vastust normaalne arv indekseerimiseks, isegi kui neil on lühikesed vastused. Kuid on soovitav, et saidil oleks vähemalt 7-10 lehekülge pikkusega 2000-3000 tähemärki. Pealegi ei tohiks need lehed olla kuskil vastuste arhiivis, vaid tuleb teha staatilised lehed, mille lingid tuleb kuhugi menüüsse panna, et need oleksid 2. taseme lehed. 2. taseme lehed on need, mille link on avalehelt. 3. taseme lehed on need, millele on link 2. astme lehtedelt. Seda selleks, et oleks selge, millest ma räägin. Milliseid lehti saab teha? No näiteks:

    Milliseid küsimusi inimesed kõige sagedamini küsivad?

    Kuidas küsida õiget küsimust?

    Mis siis, kui te ei leia vastust küsimusele?

    Enamik huvitavaid küsimusi ja vastused neile

    Väikelaste korduma kippuvad küsimused

    Millised küsimused on veel vastuseta

    Piisab isegi seitsmest sellisest lehest.

    See olen mina, nii et esimese asjana, mis meelde tuli, viskasin selle näitena.

    Need menüüelemendid saab toppida paremasse veergu või luua vasakpoolse veeru. Jaotises "Artiklid" saate lisada ka erinevaid huvitavaid artikleid kõige kohta maailmas. Üldiselt on ülesanne järgmine - veenduda, et saidil oleks lisaks lühikese tekstiga lehtedele ka 2000–3000 tähemärgi pikkused teabelehed. Seda ei pea olema palju, aga minimaalne kogus sellised lehed peaksid olema. See on saidi optimeerimise seisukohalt hea. Noh, põhimõtteliselt sellised lehed ei sega.

    Need menüüelemendid saab toppida paremasse veergu või luua vasakpoolse veeru. Jaotises "Artiklid" saate lisada ka erinevaid huvitavaid artikleid kõige kohta maailmas. Üldiselt on ülesanne järgmine - veenduda, et saidil oleks lisaks lühikese tekstiga lehtedele ka 2000-3000 tähemärgi pikkused teabelehed. Pole vaja, et neid oleks palju, kuid selliseid lehti peaks olema minimaalne. See on saidi optimeerimise seisukohalt hea. Noh, põhimõtteliselt sellised lehed ei sega.

    Tänan teid väga teie abi eest! Töö esikülg on välja joonistunud, hakkan tööle. Huvi korral saan vastavalt tulemustele siit loobuda - mis sai pärast tehtud tööd.

    Tänan teid väga teie abi eest! Töö esikülg on välja joonistunud, hakkan tööle. Huvi korral saan vastavalt tulemustele siit loobuda - mis sai pärast tehtud tööd.

    Mul on hea meel, kui räägite selles postituses oma töö tulemustest. Ootan teilt teie saidi kohta uudiseid.)

    Samuti märkasin teie saidil, et lehtede aadressid koosnevad vene tähtedest – näiteks kirillitsas: ikanta.com/453/olympic-games-where-it-went. See on samuti ebasoovitav. Parem on nimetada kõik lehed ladina tähtedega, s.t. nagu see: ikanta.com/453/olimpiiskie-games-otkud-poshlo.

    Selle põhjuseks on asjaolu, et teie saidi lehtede nimed koosnevad kirillitsast. Samuti raskendab see lehtede indekseerimist.

    Kui Platon vastab, et nende algoritmid on otsustanud teie saiti otsingusse mitte vastu võtta, siis minge esmalt saidi uuemale versioonile üle ja seejärel kirjutage uuesti Platonile. Öelge, et olete tuvastanud kõik saidi vead ja nüüd vastab see Yandexi otsingumootori nõuetele. Kui teie sait jälle modereerimist ei läbi, parandage rohkem vigu ja kirjutage uuesti Platonile. Ja nii edasi, kuni teie sait indeksisse jõuab.

    Tere päevast

    Probleem on selles, et varem indekseeriti see Yandexis tavapäraselt. Domeenivahetusega eemaldati vana sait veebihaldurist, lisati uus. Kuu on möödas, kuid "Allalaaditud leheküljed" näitab endiselt "1".

    Google'is, nagu ma aru saan, on sait indekseeritud. Kuid Yandexis ta ilmselt ei taha ...

    Kas oskate soovitada milles viga? Ette tänades!

  • Tere päevast

    Esimest korda võtsin käsile oma veebilehe täitmise, enne seda töötasin copywriterina ehk kirjutasin teistele. Alguses asus sait 3 ur domeenil ja kuu aega tagasi viidi see tavalisele domeenile. Veebisaidi aadress cool2.ru

Paljud kasutajad, eriti algajad, küsivad samu küsimusi erinevatel foorumitel ja saitidel - miks Yandexi ja Google'i otsingumootorid lehti ei indekseeri või miks sait on halvasti indekseeritud või sait on indekseerimise täielikult lõpetanud. Sellega seoses arenevad tohutud vaidlused, kuna sellel võib olla palju põhjuseid ja vastust pole võimalik kohe anda, peate analüüsima oma ressurssi ja tuvastama konkreetse põhjuse.

Seetõttu vaatame kõige levinumaid põhjuseid, miks teie saiti ei pruugita indekseerida või see võib registrist üldse välja lennata.

Miks otsingumootorid seda saiti ei indekseeri?

Kiirendada indekseerimist. Ärge unustage, et teie sait indekseeritakse kiiremini, peate lisama järjehoidjaid ja muid teenuseid.

Otsingumootoris saate lisada ka lingi addurilile, kuid mõned ütlevad, et sel juhul paneb otsingumootor teie saidi indekseerimise järjekorra lõppu. Kuigi kui otsingurobot pole teie saiti pikka aega külastanud, peaksite seda tegema.

Failirobotid. txt. Võib-olla pole teie fail robots.txt õigesti koostatud, mistõttu peate selle üle vaatama (võib-olla on indekseerimisleht või kogu sait selles suletud).

Metasildid. Võib-olla on teie lehe indekseerimine metasiltide abil blokeeritud, näiteks: none, noindex, nofollow jne. Olukorda tuleb kontrollida ja parandada.

Viirus saidil. Võib juhtuda, et teie saidile on settinud viirus ja see on vastavalt otsingutulemustest välja langenud või pole seda üldse indekseeritud, seega peaksite seda tegema.

Struktuur. Teie veebisaidi struktuur pole üldse õige. Võib-olla rikutakse kolme klõpsu reeglit. See tähendab, et saidil (lehel) konkreetse artiklini jõudmiseks peate tegema rohkem kui kolm klõpsu.

Hosting. Võib juhtuda, et teie oma teeb mingit tööd, seoses sellega ei pääse otsingumootor saidile ligi (otsingurobot ei pääse saidile) ja ilmnevad sedalaadi vead. Kui Yandexi otsingurobot ei pääse saidile juurde, lugege.

Domeen. Samuti võib juhtuda, et ostsite oma domeeni, mille otsingumootorid lubasid. Enne ostmist peate domeeninime kinnitama.

Saidi sisu. Kõige tavalisem põhjus, miks teie saiti ei indekseerita, on see, et see sisaldab ebaunikaalset sisu. Saidi jaoks peaksite kirjutama kvaliteetset ja ainulaadset sisu, mitte kopeerima teistelt.

Kuidas kontrollida lehte otsingumootori registris?

Seal on palju valikuid, palju teenuseid, kuid kõige lihtsam on kopeerida osa artiklist (selle pealkiri või URL) ja kleepida see otsinguribale ning see üles leida. Kui teie leht ilmub otsingu esimestel lehtedel, siis see indekseeritakse, kui mitte, siis paraku.

Mis on indekseerimine? See on protsess, mille käigus saadetakse teie saidi lehtede sisu robotile ja see lisatakse otsingutulemustesse. Kui pöördume numbrite poole, sisaldab indekseerimisroboti andmebaas triljoneid saidi lehtede aadresse. Iga päev küsib robot miljardeid selliseid aadresse.

Kuid kogu selle Interneti indekseerimise suure protsessi saab jagada väikesteks sammudeks:


Esiteks peab indekseerimisrobot teadma, millal teie saidi leht on ilmunud. Näiteks indekseerides teisi Interneti-lehti, leides linke või laadides alla komplekti nemp. Saime lehe kohta teada, pärast mida kavatseme sellest lehest mööda minna, saata andmed teie serverisse saidi selle lehe taotlemiseks, hankida sisu ja lisada see otsingutulemustesse.

Kogu see protsess on indekseerimisroboti vahetamine teie saidiga. Kui indekseerimisroboti saadetud päringud praktiliselt ei muutu ja muutub ainult lehe aadress, siis sõltub teie serveri vastus roboti lehepäringule paljudest teguritest:

  • oma CMS-i seadetest;
  • hostiteenuse pakkuja seadetest;
  • vahepakkuja tööst.

See vastus muutub. Esiteks saab robot lehe taotlemisel teie saidilt järgmise teenusevastuse:


Need on HTTP-päised. Need sisaldavad erinevat teenindusteavet, mis teeb robotile selgeks, millist sisu nüüd edastatakse.

Tahan keskenduda esimesele päisele – see on HTTP vastuse kood, mis näitab indekseerivale robotile selle lehe oleku, mida robot taotles.

Selliseid HTTP-koodide olekuid on mitukümmend:


Ma räägin kõige populaarsematest. Kõige tavalisem vastusekood on HTTP-200. Leht on saadaval, seda saab indekseerida, lisada otsingutulemustesse, kõik on korras.

Selle oleku vastand on HTTP-404. Leht on saidil puudu, indekseerida pole midagi, otsingusse pole ka midagi lisada. Saitide struktuuri muutmisel ja aadresside muutmisel sisemised lehed soovitame ümbersuunamiseks seadistada 301 server. Lihtsalt ta annab robotile märku, et vana leht on kolinud uuele aadressile ja uus aadress tuleb otsingutulemustesse lisada.

Kui lehe sisu pole pärast seda, kui robot lehte viimati külastas, muutunud, on kõige parem tagastada HTTP-304 kood. Robot saab aru, et otsingutulemustes pole lehte vaja uuendada ja sisu ka üle ei kanta.

Kui teie sait on lühikest aega saadaval, näiteks serveris tööd tehes, on kõige parem konfigureerida HTTP-503. Ta annab robotile märku, et sait ja server pole praegu saadaval, peate minema veidi hiljem. Lühiajalise kättesaamatuse korral takistab see lehtede otsingutulemustest väljajätmist.

Lisaks nendele HTTP-koodidele, lehe olekutele, peate otse hankima ka lehe enda sisu. Kui tavalise külastaja jaoks näeb leht välja selline:


need on pildid, tekst, navigeerimine, kõik on väga ilus, siis indekseerimisroboti jaoks on mis tahes leht lihtsalt lähtekoodi komplekt, HTML-kood:


Erinevad metasildid, teksti sisu, lingid, skriptid, palju teavet. Robot kogub selle kokku ja lisab selle otsingutulemustesse. Tundub, et kõik on lihtne, nad taotlesid lehte - said oleku, said sisu, lisasid selle otsingusse.

Kuid pole asjata, et Yandexi otsinguteenus saab veebihalduritelt ja saidiomanikelt enam kui 500 kirja, mis kinnitavad, et serveri vastusega tekkisid teatud probleemid.

Kõik need probleemid võib jagada kaheks osaks:

Need on probleemid HTTP vastuse koodiga ja probleemid HTML-koodiga, lehtede otsese sisuga. Nendel probleemidel võib olla palju põhjuseid. Kõige tavalisem on indekseerimisroboti blokeerimine hostingu pakkuja poolt.


Näiteks avasite veebisaidi, lisasite uue jaotise. Robot hakkab teie saiti sagedamini külastama, suurendab serveri koormust. Majutusteenuse pakkuja näeb seda oma jälgimisel, blokeerib indekseerimisroboti ja seetõttu ei pääse robot teie saidile juurde. Lähete oma ressursi juurde - kõik on korras, kõik töötab, lehed on ilusad, kõik avaneb, kõik on super, robot ei saa saiti samal ajal indekseerida. Kui sait pole ajutiselt saadaval, näiteks kui unustasite domeeninime eest maksta, on sait mitmeks päevaks keelatud. Robot tuleb saidile, see pole saadaval, sellistel tingimustel võib ta mõne aja pärast sõna otseses mõttes otsingutulemustest kaduda.

Valed CMS-i seadistused, näiteks värskendamisel või teisele CMS-ile üleminekul, kujunduse värskendamisel, võivad ka teie saidi lehtede valede seadistuste korral otsingutulemustest kaduda. Näiteks keelava metasildi olemasolu saidi lehtede lähtekoodis, kanoonilise atribuudi vale seadistus. Kontrollige, kas pärast kõiki saidil tehtud muudatusi on lehed robotile kättesaadavad.

Yandexi tööriist aitab teid selles. Veebihaldur serveri vastuse kontrollimiseks:


Saate vaadata, millised HTTP-päised teie server robotile tagastab, otse lehtede sisu.


Jaotises "Indekseerimine" on statistika, kust saab näha, millised lehed on välistatud, nende näitajate muutuste dünaamikat ning teha erinevaid sorteerimisi ja filtreerimisi.


Samuti rääkisin täna sellest jaotisest, jaotisest "saidi diagnostika". Kui teie sait on muutunud robotile kättesaamatuks, saate teate ja soovitused. Kuidas seda parandada? Kui selliseid probleeme pole, sait on saadaval, vastab koodidele-200, sisaldab õiget sisu, siis hakkab robot automaatselt külastama kõiki tuvastatud lehti. See ei too alati kaasa soovitud tagajärgi, mistõttu saab roboti tegevust teatud viisil piirata. Selle jaoks on fail robots.txt. Sellest räägime järgmises osas.

Robots.txt

Fail robots.txt ise on väike tekstidokument, see asub saidi juurkaustas ja sisaldab indekseerimisroboti jaoks rangeid reegleid, mida tuleb saidil roomamisel järgida. Faili robots.txt eelisteks on see, et selle kasutamine ei nõua erilisi ja eriteadmisi.

Piisab Notepadi avamisest, teatud vormingureeglite sisestamisest ja seejärel faili lihtsalt serverisse salvestamisest. Päeva jooksul hakkab robot neid reegleid kasutama.

Kui võtame näite lihtsast failist robots.txt, siis see on järgmisel slaidil:


Direktiiv User-Agent:” näitab, millistele robotitele reegel on mõeldud, luba/keela käske ning saidiplaani ja hosti abidirektiive. Natuke teooriat, tahan liikuda edasi praktika juurde.

Paar kuud tagasi tahtsin osta sammulugejat, mistõttu pöördusin Yandexi poole. Turu, et saada abi valiku tegemisel. Kolis Yandexi avalehelt Yandexi. Turg ja jõudis teenuse avalehele.


Allpool näete selle lehe aadressi, kuhu ma läksin. Teenuse enda aadressile lisati ka minu kui saidi kasutaja identifikaator.

Siis läksin "kataloogi" sektsiooni


Valitud soovitud alajaotis ja seadistatud sortimisvalikud, hind, filter, sorteerimisviis, tootja.

Sain toodete nimekirja ja lehe aadress on juba kasvanud.

Läksin soovitud toote juurde, vajutasin nuppu “Lisa ostukorvi” ja jätkasin kassaga.

Minu lühikese reisi jooksul muutusid lehtede aadressid teatud viisil.


Neile lisati teenuseparameetrid, mis tuvastasid mind kasutajana, seadistasid sortimise, näitasid saidi omanikule, kust ma saidi sellele või teisele lehele läksin.

Ma arvan, et sellised lehed, teeninduslehed ei paku otsingumootori kasutajatele erilist huvi. Aga kui need on indekseerivale robotile kättesaadavad, võivad nad otsingusse sattuda, sest robot käitub tegelikult nagu kasutaja.

Ta läheb ühele lehele, näeb linki, millel saate klõpsata, läheb sellele, laadib andmed oma roboti andmebaasi ja jätkab kogu saidist möödahiilimist. Samasse selliste aadresside kategooriasse võivad kuuluda ka kasutajate isikuandmed, näiteks tarneteave või kasutajate kontaktandmed.

Loomulikult on parem need ära keelata. Just selle jaoks aitab teid fail robots.txt. Võite tulla oma saidile täna õhtul pärast Webmasteri lõppu, klõpsata ja vaadata, millised lehed on tõesti saadaval.

Fati robots.txt kontrollimiseks on Webmasteris spetsiaalne tööriist:


Saate alla laadida, sisestada lehtede aadresse, vaadata, kas need on robotile kättesaadavad või mitte.


Tehke mõned muudatused, vaadake, kuidas robot nendele muudatustele reageerib.

Vead failiga robots.txt töötamisel

Lisaks sellisele positiivsele mõjule – teenuselehtede sulgemine võib robots.txt valesti käsitlemise korral mängida julma nalja.

Esiteks on kõige levinum probleem faili robots.txt kasutamisel saidi lehtede sulgemine, mida tõesti vajatakse, need, mis peaksid olema otsingus ja päringutel kuvatavad. Enne failis robots.txt muudatuste tegemist kontrollige kindlasti, kas leht, mida soovite sulgeda, ei osale, kas see kuvatakse otsingus päringute korral. Võib-olla on mingi parameetriga leht otsingutulemustes ja külastajad jõuavad sellele otsingust. Seetõttu kontrollige kindlasti enne faili robots.txt kasutamist ja muutmist.

Teiseks, kui teie saidil kasutatakse kirillitsa aadresse, ei saa te neid failis robots.txt otse määrata, need peavad olema kodeeritud. Kuna robots.txt on rahvusvaheline standard, siis kõik indekseerivad robotid järgivad seda, siis tuleb need kindlasti kodeerida. Kirillitsa tähestikku ei saa selgesõnaliselt määrata.

Kolmas populaarseim probleem on erinevad reeglid erinevate otsingumootorite erinevate robotite jaoks. Ühe indekseerimisroboti jaoks suleti kõik indekseerimislehed, teisel ei suletud midagi. Selle tulemusena on ühes otsingumootoris kõik korras, otsingus on vajalik leht ja teises otsingumootoris võib olla prügikaste, erinevaid prügilehti, midagi muud. Jälgige kindlasti, kui paned keelu, siis tuleb seda teha kõikide indekseerivate robotite puhul.

Neljas kõige levinum probleem on roomamisviivituse direktiivi kasutamine, kui see pole vajalik. See direktiiv võimaldab teil mõjutada indekseerimisroboti päringute puhtust. See praktiline näide, väike sait, asetasin selle väikesele hostimisele, kõik on korras. Nad lisasid suure kataloogi, robot tuli, nägi hunnikut uusi lehti, hakkab saiti sagedamini külastama, suurendab koormust, laadib selle alla ja sait muutub kättesaamatuks. Seadsime Crawl-delay direktiivi, robot näeb seda, vähendab koormust, kõik on korras, sait töötab, kõik on indekseeritud ideaalselt, see on otsingutulemustes. Mõne aja pärast kasvab sait veelgi, see viiakse üle uude hostimisse, mis on valmis nende taotlustega toime tulema suure hulga taotlustega, ja roomamise viivitusdirektiiv unustatakse eemaldada. Selle tulemusena saab robot aru, et teie saidile on ilmunud palju lehti, kuid ei saa neid indekseerida lihtsalt juhiste komplekti tõttu. Kui olete kunagi kasutanud roomamisviivituse käskkirja, kontrollige, kas see on nüüd kadunud ja teie teenus on valmis indekseerimisroboti koormust käsitlema.


Lisaks kirjeldatud funktsionaalsusele võimaldab robots.txt fail lahendada ka kaks väga olulist ülesannet – vabaneda saidil duplikaatidest ja määrata peapeegli aadress. Täpselt sellest räägime järgmises osas.

Kahekordne

Duplikaatide all peame silmas sama saidi mitut lehekülge, mis sisaldavad absoluutselt identset sisu. Kõige tavalisem näide on leheküljed, mille aadressi lõpus on kaldkriips ja ilma selleta. Samuti võib duplikaadi all mõelda sama toodet erinevates kategooriates.

Näiteks rulluisud võivad olla tüdrukutele, poistele võib sama mudel olla korraga kahes osas. Ja kolmandaks, need on ebaolulise parameetriga lehed. Nagu Yandexi näites. Turunda seda lehte "seansi identifikaator", see parameeter lehe sisu põhimõtteliselt ei muuda.

Duplikaatide tuvastamiseks vaadake, millistele lehtedele robot juurde pääseb, saate kasutada Yandexi. Veebihaldur.


Lisaks statistikale on väljas ka nende lehtede aadressid, mille robot on laadinud. Näete koodi ja viimast kõnet.

Duplikaatide põhjustatud probleem

Miks on duplikaadid halvad?

Esiteks hakkab robot ligi pääsema saidi absoluutselt identsetele lehtedele, mis ei tekita lisakoormust mitte ainult teie serverile, vaid mõjutab ka saidi kui terviku möödasõitu. Robot hakkab tähelepanu pöörama dubleerivatele lehtedele, mitte nendele lehtedele, mida tuleb indekseerida ja otsingutulemustesse lisada.


Teiseks probleemiks on see, et dubleerivad lehed, kui need on robotile kättesaadavad, võivad sattuda otsingutulemustesse ja konkureerida põhilehtedega päringute pärast, mis loomulikult võib teatud päringute puhul leitavat saiti negatiivselt mõjutada.

Kuidas saate duplikaatidega toime tulla?

Kõigepealt soovitan kasutada märgendit “kanooniline”, et suunata robot põhilehele, mis tuleks indekseerida ja otsingupäringutest leida.

Teisel juhul saate kasutada 301 serveri ümbersuunamisi, näiteks olukordades, kus aadressi lõpus on kaldkriips ja ilma kaldkriipsuta. Seadistasime ümbersuunamise – duplikaate pole.


Ja kolmandaks, nagu ma ütlesin, on see fail robots.txt. Ebaolulistest parameetritest vabanemiseks saate kasutada nii keelamiskäske kui ka käsku Clean-param.

Saidi peeglid

Teine ülesanne, mida robots.txt võimaldab lahendada, on suunata robot põhipeegli aadressile.


Peeglid on rühm saite, mis on täiesti identsed, nagu duplikaadid, ainult kaks erinevat saiti. Veebihaldurid puutuvad peeglitega tavaliselt kokku kahel juhul – kui nad soovivad kolida uude domeeni või kui kasutajal on vaja teha kättesaadavaks mitu saidi aadressi.

Näiteks teate, et kasutajad teevad teie aadressi või teie saidi aadressi aadressiribale sisestades sageli sama vea – nad teevad kirjavigu, panevad vale tähemärgi või midagi muud. Saate osta täiendava domeeni, et näidata kasutajatele mitte hostiteenuse pakkuja tünni, vaid saiti, millele nad tõesti minna tahtsid.

Peatugem esimesel punktil, sest just temaga tekivad peeglitega töötamisel kõige sagedamini probleemid.

Soovitan teil kogu kolimisprotsess läbi viia vastavalt järgmistele juhistele. Väike juhis, mis võimaldab vältida erinevaid probleeme uuele domeeninimele üleminekul:

Esiteks peate tegema saidid indekseerimisrobotile ligipääsetavaks ja asetama neile absoluutselt identse sisu. Samuti veenduge, et robot teaks saitide olemasolust. Lihtsaim viis on lisada need Yandexi. Veebihaldur ja kinnitage nende õigused.

Teiseks, kasutades Host direktiivi, suunake robot peamise peegli aadressile – sellele, mis peaks olema indekseeritud ja olema otsingutulemustes.

Ootame kõikide näidikute liimimist ja ülekandmist vanalt objektilt uuele.


Pärast seda saab juba määrata ümbersuunamise vanalt aadressilt uuele. Lihtsad juhised, kui liigute, kasutage seda kindlasti. Loodan, et sellega probleeme pole
liigub.

Kuid loomulikult tekivad peeglitega töötamisel vead.

Esiteks on peamiseks probleemiks see, et indekseeriva roboti jaoks puuduvad selged juhised peapeegli aadressile, mis peaks olema otsingus. Kontrollige oma saitidel, et failis robots.txt oleks neil hostdirektiiv ja see suunab aadressi, mida soovite otsingus näha.

Teine levinum probleem on ümbersuunamise kasutamine peapeegli muutmiseks olemasolevas peeglirühmas. Mis toimub? Vana aadressi, kuna see suunab ümber, robot ei indekseeri, see jäetakse otsingutulemustest välja. Samal ajal ei satu uus sait otsingusse, kuna see on mitte-peapeegel. Kaotate liiklust, kaotate külastajaid, ma arvan, et seda pole kellelegi vaja.


Ja kolmas probleem on ühe peegli ligipääsmatus liikumisel. Kõige tavalisem näide selles olukorras on see, kui saidi sisu kopeeriti uuele aadressile ja vana aadress lihtsalt keelati, domeeninime eest ei makstud ja see muutus kättesaamatuks. Loomulikult selliseid saite ei liimita, need peavad olema indekseerimisroboti jaoks saadaval.

Kasulikud lingid tegevuses:
  • Rohkem kasulik informatsioon leiate Yandex.Help teenusest.
  • Kõik tööriistad, millest ma rääkisin, ja veelgi enam - on olemas Yandex.Webmasteri beetaversioon.
Vastused küsimustele

Täname raporti eest. Kas ma pean failis robots.txt roboti jaoks CSS-failide indekseerimise sulgema või mitte?

Hetkel me neid sulgeda ei soovita. Jah, parem on jätta CSS, JavaScript, sest praegu töötame selle nimel, et indekseerimisrobot tunneks ära nii teie saidil olevad skriptid kui ka stiilid, näeks seda nagu külastajat tavalisest brauserist.

"Öelge mulle, kui saidi aadresside URL-id on vana ja uue jaoks samad, kas see on normaalne?".

See on korras. Tegelikult tuleb lihtsalt kujundust värskendada, sisu lisada.

“Saidil on kategooria ja see koosneb mitmest lehest: kaldkriips, leht1, leht2, näiteks kuni 10. Kõigil lehtedel on ühe kategooria tekst ja see osutub dubleerivaks. Kas see tekst on duplikaat või tuleks see kuidagi sulgeda, uus register teisele ja järgmistele lehtedele?

Esiteks, kuna esimese lehe lehekülgede arv ja teise lehe sisu on üldiselt erinevad, ei ole need duplikaadid. Kuid peate arvutama, et teine, kolmas ja edasised leheküljed võivad otsingusse sattuda ja kuvada iga asjakohase taotluse korral. Paremini lehekülgedel soovitaksin kasutada kanoonilist atribuuti, heal juhul kõiki tooteid sisaldaval lehel, et robot ei kaasaks otsingusse leheküljelehti. Inimesed kasutavad väga sageli kanoonilist lehekülge lehekülgedel. Robot tuleb teisele lehele, näeb toodet, näeb teksti, ei kaasa otsingusse lehti ja saab atribuudi tõttu aru, et see on esimene lehekülg, mis peaks otsingutulemustes sisalduma. Kasutage kanoonilist ja sulgege tekst ise, ma arvan, et see pole vajalik.

Allikas (video): Kuidas seadistada saidi indekseerimist- Aleksander Smirnov

Magomed Tšerbišev

Jaga:

Selles artiklis selgitame, miks Yandex ei pruugi saidi, jaotise või kogu projekti konkreetset lehte indekseerida. Kirjeldatud probleemid võivad mõjutada indekseerimist Google'is ja muudes otsingumootorites. Lehtede väljalangemine indeksist on tõsine probleem, kuna see mõjutab otseselt potentsiaalset klikkide arvu, mida ressurss võib otsingumootoritelt saada.

1. Yandex ei indekseeri saiti täielikult

Kui teil on uus sait, siis see ei ilmu kohe otsingumootorisse - selleks võib kuluda 2-3 nädalat kuni kuu. Google leiab ja indekseerib uued projektid reeglina kiiremini, Yandex aeglasemalt.

Kui 2–3 nädalat on möödas ja Yandex ikka veel ei indekseeri saiti, on võimalik, et ta lihtsalt ei tea sellest:

  • Lisage saidile link spetsiaalsel kujul: http://webmaster.yandex.ru/addurl.xml
  • Lisage sait Yandex.Webmasteri teenusesse: http://webmaster.yandex.ru
  • Lisage oma saidile Yandex.Metrica
  • Asetage saidile lingid sotsiaalvõrgustikest ja ajaveebidest (otsingumootori robotid indekseerivad aktiivselt uut sisu sotsiaalvõrgustikes ja ajaveebid)
  • 1.2. Vana sait on indeksist osaliselt või täielikult välja langenud

    Märkate seda probleemi, kui võrrelda saidi lehtede arvu ja otsingumootori registris olevate lehtede arvu (seda näete Yandex.Webmasteri teenuse kaudu).

    Kui enamik lehti langes registrist välja ja alles jäi ainult põhileht või põhileht ja mitu sisemist, on probleem tõenäoliselt AGS-filtris. Yandex leidis, et teie saidi sisu ei ole unikaalne või kasutajate jaoks atraktiivne. Veebilehe sisu tuleb ümber töötada.

    Lisaks filtrite rakendamisele ei pruugi Yandex saiti indekseerida järgmistel põhjustel:

  • Kogemata keelatud indekseerimine failis Robots.txt. Tutvu selle sisuga.
  • Robot ei pääse saidile mingil põhjusel ebastabiilne töö roboti hostimine või IP-aadress oli kogemata keelatud (näiteks sait kajastas DDOS-i rünnakut ja otsingumootori robotit peeti ekslikult ründajaks).
  • 2. Yandex ei indekseeri saidi lehti

    See probleem on tavalisem kui kogu saidi kadumine registrist. Tüüpilistest probleemidest, mille puhul Yandex ei pruugi lehte indekseerida, võime esile tõsta:

  • Otsingumootori robot ei jõua lehele saidi segase ülesehituse tõttu või kõrge tase pesitsemine. Proovige veenduda, et pääsete saidi mis tahes lehele kahe hiireklõpsuga. Looge saidikaart.
  • Unikaalset huvitavat sisu on lehel vähe ning otsingumootor ei pea seda külastajatele kasulikuks. Kontrollige teksti ainulaadsust, viimistlege seda, muutke see kasulikumaks.
  • Lehtede arv saidil ületab otsingumootori projekti jaoks määratud limiidi. Näiteks on Yandex valmis indekseerima teie saidilt 10 000 lehekülge ja teie projektis 15 000 lehekülge. Igal juhul ei satu registrisse 5 tuhat lehekülge. Proovige projekti arendada, et limiiti suurendada – ja sulgege mittevajalikud teenuselehed indekseerimisest, et vabastada registris ruumi reklaamitud lehtede jaoks.
  • Leheküljele linke pole - vastavalt sellele ei leia otsingumootor seda.
  • Leheküljel on Robots.txt failis indekseerimine keelatud. Kontrollige faili sisu.
  • Leht sisaldab robotite metasildis atribuuti noindex, mistõttu otsingumootorid seda ei indekseeri. Kontrollige lehe koodi.
  • Saidi menüü on tehtud flashis, mida otsingumootorid ei töötle. Sellest lähtuvalt ei indekseeri Yandex saidi lehti, mille lingid on välklampidega peidetud. Vaja on teha alternatiivne menüü, mille lingid on otsingumootori robotitele kättesaadavad.