31.10.2013

ONLINE-Marketing - Tag 11

ONLINE-Marketing - 31.10. - Tag 11




















LINKTIPP http://www.trustagents.de/unternehmen/publikationen/google-webmaster-tools-e-book

Google Webmaster-Tools

Anmeldung geht über Google+, das bereits erstellte Blog wird (meistens) sofort erkannt.
Bei selbst erstellten Domains sollte nun angegeben werden, ob die Seite oder ohne www bearbeitet werden soll. Unterschied!

Crawlingfehler – Geschwindigkeit
Suchanfragen – xx Suchanfragen bei 230 Impressions und 30 Clicks -> CTC von…
Sitemap – eingereichte Seiten /Bilder, davon indexierte Seiten/Bilder (keine DoubleContent, Bilder von Bildverlagen). Bei Problemen  gibt es Warnungen, die betrachtet werden und evtl. korrigiert werden sollten. Eine Sitemap kann bei Yoast für Wordpress erstellt werden und bei xxxxx für Blogger.

Unterschiede Sitemaps – HTML oder XML
Sitemap-Html:  wird im Browser angezeigt, kann der User lesen zu Übersicht.
SITEMAP-XML: werden extra erstellt für den Suchmaschinen-Crawler
http://www.xml-sitemaps.com/standalone-google-sitemap-generator.html      kostenloses Tool, das die xml-Datei erstellt. Dann wird die heruntergeladene Datei auf den eigenen Server geladen, dann vergleichen die WM-Tools diese erstellte xml-Datei mit dem bereits geprüften Index. So können viel mehr Unter-Seiten vom Crawler schnell erfasst und indexiert werden. Innerhalb kürzester Zeit muss das geschehen, da ja Milliarden Seiten ständig gecrawlt werden müssen. Bei Blogs ist das nicht möglich, weil man nicht auf den eigenen Server zurückgreifen kann.
Wordpress-Einstellungen die Permalinks sollten bei den Beiträgen nur auf Name voreingestellt werden, damit die Linktiefe bei 2 bleibt.
Was ist eine Linktiefe?
Linkpfad 0 – Toplevel-Domain, hinter einem Slash ist Linktiefe 1, weiterer Text mit Slash ist dann Linktiefe 2, usw. Bis Linktiefe 3 ist es möglich bis zu 10.000 Unterseiten zu führen, die noch verfolgt werden können. Deshalb sollten die Menüs klar gegliedert sein. Die Startseite sollte auch sofort ohne Linktiefe aufzurufen sein um super schnell gefunden zu werden.

Trick bei blogspot, um die feeds/posts/default – dann werden die Feeds erkannt  und angezeigt, dieser Ersatz für sitemap kann  in Webmastertools eingeben werden.


Menüpunkt Darstellung der Suche: Data Highlighter
wenn die Website strukturierte Daten wie Veranstaltungsverzeichnisse oder Bewertungen enthält, dann gibt es  eine Alternative zu Webmaster-Markup, mit der Google die Daten auf der  Website besser verstehen kann. Mit Data Highlighter kann man einfach jedes Datenfeld mit der  Maus "taggen". Google kann die Daten dann in den Suchergebnissen attraktiver und innovativer präsentieren, mit mehr Platz und Sternchen im Suchergebnis – werden durch strukturierte Daten erzeugt.
Strukturierte Daten – werden erzeugt. HTML-Verbesserungen
Sitelinks
–sind automatisch generierte Links, die unter den Suchergebnissen für die Website erscheinen können. Eingestellt werden mit der sogenannten Abwertung  einzelne Seiten, die dann nicht indiziert werden sollen. Wenn man also nicht möchte, dass eine Seite als Sitelink erscheint, kann man sie in diese Liste eintragen und abwerten. =  nebensächliche Links, die nicht aufgeführt werden sollen.



Menüpunkt : Suchanfragen
Links zu Ihrer Website –
Häufigste Suchanfragen von Begriffen, Google listet dabei auch besonders die Keywords auf, die überhaupt gemacht wurden, nicht nur die selbst verwendeten, Inboundmarketing  – Impressions, Klicks, die häufigsten Seiten,  dann könnte man mit dem Adwords-Keywordplanner überprüfen, wieviele Suchanfragen pro Monat für dieses Wort sind, dann das Wort in der Website optimieren, ZB in Headline einbauen, in Bodytext einbauen.  Weitere Möglichkeit einen Gastbeitrag mit Ankertext schreiben, Backlink erzeugen.
Interne Links
Manuelle Maßnahmen

http://cuterank.net/ - Cuterank – kostenloses Tool für eine Domain, checkt die Keywords, wo in welcher Suchmaschine ich gelistet bin. Um für ein spezielles Wort auf den ersten Rang zu kommen. ZB für Yahoo, Bing, Ask, AOL, Google D, CH Aus.

Menüpunkt:  Google-Index Indexierungsstatus – hier werden die indizierten Daten des letzten Jahres angezeigt. Konstantes Wachstum ist zu empfehlen. Content-Keywords – eine Liste wird angezeigt, Wörter, die zu der Website passen URLs entfernen -  mithilfe der robots.txt-Datei gibt man an, wie Suchmaschinen die Website crawlen sollen, oder beantragt das Entfernen von URLs aus den Google-Suchergebnissen 404-Fehler: Seiten die nicht mehr gefunden werden – tote Links, die können entfernt werden.
200 – alles in Ordnung, Servercode
500 – schlimmster Fehler,  der Server weiß auch nicht, wo der Fehler liegt
http://de.wikipedia.org/wiki/HTTP-Statuscode - Server Codes bei Wikipedia einzusehen
1xx – Informationen, 2xx – Erfolgreiche Operation, 301 Moved Permanently, 4xx – Client Fehler, 500 Internal Server Error…etc.
http://de.wikipedia.org/wiki/Sitemap - Informationen zu Sitemap     
  
Menüpunkt Crawling Crawling-Fehler Crawling-Statistiken – durchgehende Linie, Inhalte weerden fortlaufend erkannt Abruf wie durch Google Blockierte URLs – Crawleranweisungen Googlebot heißen User-agent -> robots.txt das sind Vorgaben, an die sich die der Crawler halten MUSS, die Angabe in der Meta sind nur  Vorschläge.
Bei eigenen Websites sollte man überlegen, was man ausschließen soll.
<meta name="robots" content="noindex,nofollow" />


Sitemaps – werden hier angezeigt, auch wenn sie eingereicht, noch nicht gezeigt werden (wie beim frisch eingereichten Blog)
URL-Parameter

Menüpunkt Sicherheitsprobleme
Menüpunkt Andere Ressourcen
– Testtool für strukturierte Daten, Hilfsprogramm zur Auszeichnung strukturierter Daten, E-MailMarkup-Tester, Google-Places, Google Merchant Center, PageSpeed Insights.