Elke webmaster weet dat als mensen zijn bron willen bezoeken via zoekmachines, deze moet worden geïndexeerd. Over wat site-indexering is, hoe het wordt uitgevoerd en wat de betekenis ervan is, zullen we in dit artikel vertellen.
Wat is indexeren?
Dus, het woord 'indexeren' betekent op zich het invoeren van iets in het register, een telling van beschikbare materialen. Hetzelfde principe is van toepassing op site-indexering. In feite kan dit proces ook het invoeren van informatie over internetbronnen in de database van zoekmachines worden genoemd.
Zodra de gebruiker dus een andere zin invoert in het zoekveld van Google, zal het script een resultaat naar hem terugsturen, inclusief de titel van uw site en de korte beschrijving ervan, die we hieronder zien.
Hoe wordt indexeren?
Indexeren zelf ("Yandex" is, of Google - speelt geen rol) is vrij eenvoudig. Het hele web van internet, gericht op de database van ip-adressen die zoekmachines hebben, wordt gescand door krachtige robots - "spinnen" dieinformatie over uw site. Elk van de zoekmachines heeft er een groot aantal en ze werken automatisch 24 uur per dag. Hun taak is om naar uw site te gaan en alle inhoud erop te "lezen", terwijl ze de gegevens in de database invoeren.
Daarom hangt het indexeren van sites in theorie niet veel af van de eigenaar van de bron. Doorslaggevend hierbij is de zoekrobot die naar de site komt en deze verkent. Dit is wat van invloed is op hoe snel uw site wordt weergegeven in zoekresultaten.
Indexeringstermen?
Natuurlijk is het voor elke webmaster gunstig om zijn bron zo snel mogelijk in de zoekresultaten te laten verschijnen. Dit is ten eerste van invloed op de voorwaarden om de site naar de eerste posities te brengen en ten tweede wanneer de eerste stadia van het genereren van inkomsten met de site beginnen. Dus hoe eerder de zoekrobot alle pagina's van uw bron "opeet", hoe beter.
Elke zoekmachine heeft zijn eigen algoritme voor het invoeren van sitegegevens in zijn database. Het indexeren van pagina's in Yandex wordt bijvoorbeeld in fasen uitgevoerd: robots scannen voortdurend sites, rangschikken vervolgens de informatie, waarna de zogenaamde "update" plaatsvindt, wanneer alle wijzigingen van kracht worden. De regelmaat van dergelijke evenementen wordt niet door het bedrijf vastgesteld: ze worden (in de regel) eenmaal per 5-7 dagen gehouden, maar ze kunnen zowel 2 als 15 dagen van tevoren plaatsvinden.
Tegelijkertijd volgt de indexering van de site in Google een ander model. In deze zoekmachine vinden dergelijke "updates" (basisupdates) regelmatig plaats, wacht daarom elke keer totdat de robots de informatie in de database invoeren, en dan is hetwordt om de paar dagen besteld, niet nodig.
Op basis van het bovenstaande kunnen we de volgende conclusie trekken: pagina's in Yandex worden toegevoegd na 1-2 "updates" (dat wil zeggen, gemiddeld in 7-20 dagen), en in Google kan dit veel sneller gebeuren - letterlijk in de dag.
Tegelijkertijd heeft elke zoekmachine natuurlijk zijn eigen kenmerken van hoe indexering wordt uitgevoerd. Yandex heeft bijvoorbeeld een zogenaamde "fast bot" - een robot die binnen een paar uur gegevens in het probleem kan invoeren. Toegegeven, het is niet gemakkelijk om hem uw bron te laten bezoeken: dit betreft voornamelijk nieuws en verschillende spraakmakende evenementen die zich in re altime ontwikkelen.
Hoe kom je in de index?
Het antwoord op de vraag hoe u uw site in zoekmachines kunt indexeren, is zowel eenvoudig als complex. Pagina-indexering is een natuurlijk fenomeen, en als u er niet eens over nadenkt, maar gewoon uw blog bijhoudt en deze geleidelijk vult met informatie, zullen zoekmachines uw inhoud in de loop van de tijd perfect "slikken".
Iets anders is wanneer u het indexeren van pagina's moet versnellen, bijvoorbeeld als u een netwerk van zogenaamde "satellieten" heeft (sites die zijn ontworpen om links te verkopen of advertenties te plaatsen, waarvan de kwaliteit meestal slechter is). In dit geval moet u maatregelen nemen zodat de robots uw site opmerken. Het volgende wordt als gebruikelijk beschouwd: het toevoegen van de URL van de site aan een speciaal formulier (het heet "AddUrl"); het bronadres door de linkdirectories laten lopen; adres toevoegen aan mappenbladwijzers en meer. Er zijn talloze discussies op SEO-forums over hoe elk van deze methoden werkt. Zoals de praktijk laat zien, is elk geval uniek en is het moeilijk om nauwkeuriger de redenen te vinden waarom de ene site in 10 dagen werd geïndexeerd en de andere in 2 maanden.
Hoe kom je sneller in de index?
De logica achter het sneller opnemen van een site in de index is echter gebaseerd op een koppeling ernaar. We hebben het in het bijzonder over het instellen van URL's op gratis en openbare sites (bladwijzers, mappen, blogs, forums); over het kopen van links op grote en populaire sites (bijvoorbeeld via de Sape-uitwisseling); evenals het toevoegen van een sitemap aan het addURL-formulier. Misschien zijn er andere methoden, maar degenen die al zijn vermeld, kunnen veilig de meest populaire worden genoemd. Bedenk dat in het algemeen alles afhangt van de site en het geluk van de eigenaar.
Welke sites worden geïndexeerd?
Volgens het officiële standpunt van alle zoekmachines komen sites die door een reeks filters gaan in de index. Niemand weet welke eisen deze laatste stellen. Het is alleen bekend dat ze in de loop van de tijd allemaal zo verbeteren dat pseudo-sites worden weggefilterd die zijn gemaakt om geld te verdienen door links en andere bronnen te verkopen die geen nuttige informatie voor de gebruiker bevatten. Voor de makers van deze sites is de belangrijkste taak natuurlijk om pagina's zoveel mogelijk te indexeren (om bezoekers aan te trekken, links te verkopen, enz.).volgende).
Welke bronnen verbieden zoekmachines?
Op basis van de eerdere informatie kunnen we concluderen welke sites het meest waarschijnlijk niet in de SERP's komen. Dezelfde informatie wordt geuit door officiële vertegenwoordigers van zoekmachines. Allereerst zijn dit sites met niet-unieke, automatisch gegenereerde inhoud die niet nuttig is voor bezoekers. Dit wordt gevolgd door bronnen waarin er een minimum aan informatie is, gemaakt om links te verkopen, enzovoort.
Het is waar, als je de resultaten van zoekmachines analyseert, kun je al deze sites erin vinden. Daarom moeten we, als we het hebben over sites die niet in de zoekresultaten voorkomen, niet alleen niet-unieke inhoud opmerken, maar ook een aantal andere factoren - veel links, een onjuist georganiseerde structuur, enzovoort.
Inhoud verbergen. Hoe pagina-indexering uitschakelen?
Zoekmachines crawlen alle inhoud op de site. Er is echter een techniek waarmee u de toegang van zoekrobots tot een bepaalde sectie kunt beperken. Dit wordt gedaan met behulp van het robots.txt-bestand, waarop de "spinnen" van zoekmachines reageren.
Als dit bestand in de hoofdmap van de site wordt geplaatst, zal het indexeren van pagina's verlopen volgens het script dat erin is geschreven. In het bijzonder kunt u indexering uitschakelen met een enkele opdracht - Disallow. Daarnaast kan het bestand ook delen van de site specificeren waarop dit verbod van toepassing is. Om bijvoorbeeld de index van de hele site te verbieden, volstaat het om te specificeren:een schuine streep "/"; en om de sectie "shop" uit de zoekresultaten uit te sluiten, volstaat het om het volgende kenmerk in uw bestand op te geven: "/shop". Zoals u kunt zien, is alles logisch en uiterst eenvoudig. Pagina-indexering sluit heel gemakkelijk. Tegelijkertijd bezoeken zoekrobots uw pagina, lezen robots.txt en voeren geen gegevens in de database in. U kunt dus gemakkelijk manipuleren om bepaalde kenmerken van sites in de zoekopdracht te zien. Laten we het nu hebben over hoe de index wordt gecontroleerd.
Hoe kan ik pagina-indexering controleren?
Er zijn verschillende manieren om erachter te komen hoeveel en welke pagina's aanwezig zijn in de Yandex- of Google-database. De eerste - de eenvoudigste - is om het bijbehorende verzoek in het zoekformulier in te stellen. Het ziet er als volgt uit: site:domen.ru, waar je in plaats van domen.ru respectievelijk het adres van je site schrijft. Wanneer u een dergelijk verzoek doet, toont de zoekmachine alle resultaten (pagina's) die zich op de opgegeven URL bevinden. Bovendien kunt u niet alleen alle pagina's weergeven, maar ook het totale aantal geïndexeerde materiaal zien (rechts van de zin "Aantal resultaten").
De tweede manier is om pagina-indexering te controleren met behulp van gespecialiseerde diensten. Er zijn er nu een groot aantal van, terloops kunnen ze xseo.in en cy-pr.com heten. Op dergelijke bronnen kunt u niet alleen het totale aantal pagina's zien, maar ook de kwaliteit van sommige ervan bepalen. Je hebt dit echter alleen nodig als je meer diepgaande kennis van dit onderwerp hebt. In de regel zijn dit professionele SEO-tools.
Over "geforceerde" indexering
Ik zou ook graag iets willen schrijven over de zogenaamde"Geforceerde" indexering, wanneer een persoon probeert zijn site in de index te krijgen met behulp van verschillende "agressieve" methoden. Optimizers raden dit niet aan.
Zoekmachines die op zijn minst buitensporige activiteit opmerken in verband met een nieuwe bron, kunnen sancties opleggen die een negatieve invloed hebben op de staat van de site. Daarom is het beter om alles zo te doen dat de indexering van pagina's er zo organisch, geleidelijk en soepel mogelijk uitziet.