Keresőoptimalizálás Archiv

“In the Search Engine Wars, Yesterday’s information is NOT good enough” Ezzel a velős mottóval indult útjára a SEO Tool Land oldal, mely jelenleg több mint 500 SEO és SEM-hez kapcsolódó hasznos kis programot és kiegészítőt tartalmaz. Egyelőre. Ugyanis UCG a kontent mondhatni, eddig még fel nem sorolt és hasznosnak ítélt segédeszközöket mi is jóváhagyathatunk a szerkesztőkkel. A toolokra szavazni is lehet, kifejezve ezzel a megelégedettségünket, valamint nyomokat hátrahagyva az utánunk jövőknek. Van itt még top lista, szójegyzék, és cikk szekció is, szóval sok-sok hasznos dolog egy helyen, egy témában. Megyek megnézem:SEO Tool Land “In the Search Engine Wars, Yesterday’s [&hellip

Tovább...

Biztos feltűnően sokat írok mindenféle wordpress dolgokról, pluginekről, de úgy érzem a saját bőrömön, hogy az ezekkel való játszadozás és ismerkedés, rengeteg hasznos információt ad, és szépen végigvezet a keresőoptimalizálás számos alapvető tételén. Számos jó plugin van, van amelyik többet, van amelyik kevesebbet tud. Sikerült a napokban rátalálnom egy ultimate pluginra, John Godley készítésében. A neve Headspace2, és azt kell, hogy mondjam, az eddigi legkomplexebb eszköz a SEO feladatok végrehajtásához. Biztos feltűnően sokat írok mindenféle wordpress dolgokról, pluginekről, de úgy érzem a saját bőrömön, hogy az ezekkel való játszadozás és ismerkedés, rengeteg hasznos információt ad, és szépen végigvezet a keresőoptimalizálás

Tovább...

A korábban már ismertetett problémát, miszerint rosszakaró emberek jó eséllyel ki tudják ejteni az oldalunkat a google indexéből, Bagi Zoltán is körüljárta, és publikált egy kódot, amit az oldalainkba illesztve megvédhetőek az oldalaink. A kód a reverse-forward-dns robot validáláson alapul, aminek az a lényege, hogy az oldalunkat lekérő “crawler”-nek az IP-jét és a User-Agentjét is ellenőrizzük, majd megnézzük, hogy a visszakapott értékek oda vissza is egyeznek e! A kód felhasználásával készítettem egy WordPress plugin, mely a Google Proxy Hack Defender nevet kapta, és segít a wordpresst használóknak, hogy könnyedén tudják aktiválni a védelmet az oldalukon. A lépések: Töltsd le a [&hellip

Tovább...

Jó esetben nem okoz gondot egy sitemap.xml generálás, a legtöbb CMS-hez van plugin, és a neten is találunk példakódokat, eszközöket. Nincs is ezzel gond. Viszont tegnap a következő szituáció adódott. Van egy .net alapú site, külföldi hosting szolgáltató, és nincs írási jog a webszerverre – vagy csak nagyon körülményes módon -, ennek következtében a legenerált sitemap.xml-t nem tudjuk kiírni. A következő megoldások jöttek elő: robots.txt-be tenni a sitemap elérési útvonalát, ami történetesen egy másik szerverre lenne feltöltve bizonyos időközönként. A kérdés itt az, hogy ha van pl. a kismalac.hu domainem, de a hozzá tartozó sitemap-et egy másik domainről szedi, ahhoz [&hellip

Tovább...

Ügyesen feltelepítettem teszt céljából Joost de Valk Robots Meta pluginját, amivel könnyedén adhatunk a spidereknek szóló tageket a wordpress-es oldalainkhoz. Gyakorlatilag a robots.txt editálásával i elég sok mindent meg tudnánk csinálni amiben a plugin a segítségünkre van, de azért nem mindenben. Nézzük mit tud: A “Search Results” oldalhoz “noindex, follow” tageket rendel. (Ez ugye a wordpress keresőjének a találati oldala.) A Login, Register és Admin oldalakhoz “noindex” taget rendel. Noodp és Noydir tageket tudunk elhelyezni az oldalakon, megakadályozva, hogy a DMOZ-ban vagy a Yahoo! Directory-ban található descriptiont használja. RSS feed indexelésének megakadályozása Nofollow tageket tesz a kategória listákhoz az oldalon, [&hellip

Tovább...

Csak érdekességképpen. A szeptember 6.-i státusz. Van pár érdekes site itt, jobban mondva érdekes adatok róluk. Pl. a whitehouse.gov 150.000 indexelt oldala, vagy 14.000 képe, de a 60.000 backlink sem gyenge :) Gyors áttekintésre ajánlom a Xinu-t, amiről Longhand kolléga irt már pár mondatban: Xinu – Gyors weboldal-statisztika A lista: http://www.adobe.com http://www.ercim.org http://www.energy.com http://www.google.com http://www.keio.ac.jp http://www.mac.com http://www.macromedia.com http://www.microsoft.com http://web.mit.edu http://www.lcs.mit.edu http://www.nasa.gov http://www.nsf.gov http://www.real.com http://www.w3.org http://www.whitehouse.gov Csak érdekességképpen. A szeptember 6.-i státusz. Van pár érdekes site itt, jobban mondva érdekes adatok róluk. Pl. a whitehouse.gov 150.000 indexelt oldala, vagy 14.000 képe, de a 60.000 backlink sem

Tovább...

Az alábbi plugin segítségével, egy kicsit turbózhatunk a kulcsszósűrűségen az oldalunkon, mivel azt csinálja, hogy a megadott szavakat egyszerűen kiveszi a postokból, ha éppen Googlebot indexeli azt. Igen, ez már cloaking, de szerintem nem a súlyos fajtából. Bár nem tudom, hogy a google-t ez érdekli e :) Nagyon egyszerű kis php, könnyen testre is szabhatjuk, csak az alábbi sorokban kell módosítani az általunk feleslegesnek ítélt szavakat. Természetesen hozzáadni is lehet. $patterns[0] = ‘/ why /’; $patterns[1] = ‘/ but /’; $patterns[2] = ‘/ I /’; $patterns[3] = ‘/ is /’; $patterns[4] = ‘/ are /’; $patterns[5] = ‘/ about /’; [&hellip

Tovább...

Mindenekelőtt! Nem egy teljesen új problémáról van szó. Sem a duplikált tartalom, sem a proxyk, sem pedig a negativ SEO tekintetében. A kiélezett konkurenciaharcban, vannak akik nem riadnak vissza nem teljesen etikus módszerek alkalmazásától, annak érdekében, hogy a versenytársat kellemetlen helyzetbe hozzák. Már pedig a SERP-ből (Search Engine Result Page) való kikerülés elég kellemetlen tud lenni. Vagy gondoljunk csak akár a Google Bowling-ra. Augusztus 16-án, Dan Thies úgy gondolta, hogy nem bírja tovább, és széles körben is nyilvánosságra hozta a Google Proxy Hacking elméletét, mely nagyon úgy tűnik, hogy nem egy hibás gondolkozási mechanizmus eredmémye. hanem nagyon is igaza van. [&hellip

Tovább...

Vannak ugyebár a “hagyományos” kulcsszó helyezés ellenőrző eszközök, amik úgy működnek, hogy megadunk nekik egy kulcsszót, és egy domaint, majd a keresés után kapunk egy eredményt, hogy az adott kulcsszóra, hanyadik helyezést érünk el a SERP-ben. A SeoDigger máshogy működik. Itt egy domaint, vagy egy linket adunk meg neki, ő pedig kilistázza nekünk, hogy a domainhez kapcsolhatóan milyen kulcsszavak, hányadik helyen vannak a SERP-ben (Google és MSN), valamint hányszor keresték őket az elmúlt hónapban (Overture ls Wordtracker adatok alapján), Az eszköz még béta, de ingyenes felhasználású, bár anonymousként csak 5 domaint ellenőrizhetünk óránként, de a regisztráció után – csak egy [&hellip

Tovább...

A pár nappal ezelőtti SEMNE (Search Engine Marketing New England) elnevezésű eseményen, Dan Crow a Google Crawl System vezetője beszélt erről az új tag-ről, melyet a robotok hamarosan értelmezni fognak. Az unavailable_after tag segítségével azt tudod megmondani a Google robotoknak, hogy meddig indexeljék az adott oldalt, tehát mi az az időpont, ami után már nem. Rövid élettartamú microsite-oknál, adott ideig tartó akciókat hirdető oldalaknál vagy pl. korlátozott ideig ingyen elérhető tartalmaknál hasznos lehet a használata. Kicsit hosszabban olvasható itt Dan Crow előadásáról: Getting Into Google A pár nappal ezelőtti SEMNE (Search Engine Marketing New England) elnevezésű eseményen, Dan Crow a [&hellip

Tovább...