Felmerülő kérdések sitemap kapcsán

Jó esetben nem okoz gondot egy sitemap.xml generálás, a legtöbb CMS-hez van plugin, és a neten is találunk példakódokat, eszközöket. Nincs is ezzel gond. Viszont tegnap a következő szituáció adódott.

Van egy .net alapú site, külföldi hosting szolgáltató, és nincs írási jog a webszerverre – vagy csak nagyon körülményes módon -, ennek következtében a legenerált sitemap.xml-t nem tudjuk kiírni. A következő megoldások jöttek elő:

  • robots.txt-be tenni a sitemap elérési útvonalát, ami történetesen egy másik szerverre lenne feltöltve bizonyos időközönként.
  • A kérdés itt az, hogy ha van pl. a kismalac.hu domainem, de a hozzá tartozó sitemap-et egy másik domainről szedi, ahhoz mit szól? Tehát így adom meg robots.txt-ben:
    Sitemap: http://www.nagymalac.hu/sitemap.xml

  • A másik megoldás az lenne, hogy a programozó ír egy handlert, tehát amikor jön a crawler, és kéri a sitemap.xml-t, a handler lefut, és akkor on-the-fly megcsinálja a sitemap-et, amit odaad a crawlernek.
  • Egy nagy site esetén a generálás azonban sok idő lehet, a crawler pedig nem tudom mennyit vár. Valaki tudja, hogy mekkora timeout-okkal dolgozhatnak? :)

    Hát így állok most. Kevés lelkes olvasómnak esetleg van valami ötlete vagy meglátása?

    Köszi!

    Egy Hozzászólás - “Felmerülő kérdések sitemap kapcsán”
    1. bazso

      Handler megír, de egy már előre legenerált xml-t ad vissza… :)