Donnerstag, 24. April 2014

Tag 13: Googles flotte Dreier

Google zieht (nach Möglichkeit) überall sein Dreier-Konstrukt durch:

Goolge AdWords

  1. Kampagne
  2. Anzeigengruppe
  3. Anzeigen

Google Adsense

  1. Anzeigenblöcke
  2. Benutzerefinierte Channels/Kanäle
  3. URL-Channels/-Kanäle

Google Analytics

  1. Konto
  2. Property
  3. Websites

Dienstag, 15. April 2014

Tag 7: Offpage SEO / Linkbulding

Brainstorming: Wo können wir Backlinks setzen?

  • Foren
  • Blogs (z. B. in den Kommentaren)
  • Microblogs
  • Websites (z. B. von Kollegen)
  • Social Networks (z. B. Facebook)
  • DMOZ
  • Web-Verzeichnisdienst
  • E-Mail
  • Newsletter und Social Bookmarking
  • Artikelverzeichnisse
  • RSS-Verzeichnisse
  • Presseverteiler
  • Conversation Prism (Überblick)
  • etc. pp. - und noch etliche Zwischenformen mehr.

Quellen zu diesen Möglichkeiten

Montag, 14. April 2014

Tag 7: The Conversation Prism

The Conversation Prism

Quelle: conversationprism.com

Tag 6: HTML für Suchmaschinen

Heute beschäftigen wir uns mit HTML aus Sicht der Suchmaschinen.
(HMTL und andere Programmiersprachen kann man prima lernen mit: w3schools.com)

 

Durch die Google-Brille

Um zu sehen, wie Google meine Seite ausliest, kann ich einen Engine Spider Simulator einsetzen - ein praktisches SEO-Tool!

 

Hütchenspiele

Als White-, Grey- und Black-Hats bezeichnet man diverse Tricks, mit denen eine Website SEO-technisch gepusht werden soll (nachzulesen bei t3n).
Oft richten solche SEO-Techniken jedoch mehr Schaden an, als dass sie helfen.

Graue Beispiele:
  • Weiße Keywords auf weißem Grund
  • Ein Kasten mit Keywords außerhalb des Viewports (sichtbarer Bereich) oder verdeckt hinter einem Container
  • Ein mit Keywords vollgestopfter Kommentar-Div-Container in der Quelldatei (nicht sichtbar, wird aber von Suchmaschine ausgelesen!
Schwarze Beispiele:
  • Für einen nervigen Konkurrenten produzieren wir fröhlich 100.000 Backlinks und löschen diese am nächsten Tag wieder. Das ziehen wir ein paar mal durch, und schon hagelt es eine Google-Penalty ...
  • ... oder wir attackieren direkt den Server des Konkurrenten (die entsprechenden Daten finden wir über Denic heraus), damit die Seite solange 404-Fehler auswirft, bis sie von Google heruntergestuft wird o.O

 

Keywords everywhere

In Reihenfolge der SEO-Wichtigkeit soll das Keyword:
  • in der Domain vorkommen!
  • im Seitentitel <title> vorkommen (und dort möglichst ganz vorne stehen)!
  • in der Seitenbeschreibung <description> auftauchen und dort möglichst weit vorne!
  • in <h1> vorkommen!
  • in Ankertexten für Links verwendet werden!
    (Also nicht das Wort "hier" verlinken. Tipp: Will jemand unsere Seite verlinken, geben wir ihm einen vorgefertigen Text, der die Keywords gleich im Anker enthält.)
  • Keywords weiter oben auf der Seite werden höher bewertet als Keywords, die weiter unten stehen!
  • (Klausur: Auf jeder Seite darf es genau eine <h1>-Überschrift geben.)

 

Keyword-Dichte / Keyword density

  • lässt sich in SeoQuake kontrollieren
  • Gut: ca. 2 - 6 Prozent
  • bei wenig Konkurrenz z. B. mit 2 Prozent starten - evtl. reicht das schon aus
  • 6 Prozent nur in Ausnahmefällen!
  • Flexionen (Plural-s etc.) werden von den Suchmaschinen noch nicht erkannt!
Tipp: Beim Schreiben alle 4 Lerntypen abfrühstücken (Emo, Angst, Beweistyp, Schritt-für-Schritt-Mensch ...)

 

follow/nofollow

SEO-technisch sollte man bei den Links einen Mix aus follow und no-follow haben.
Der Meta-Tag <nofollow> (im HTLM-Code) weist Suchmaschinen an, Rückverweise nicht zur Berechnung der Linkpopularität heranzuziehen. Einsatzbereiche:
  • Verhinderung von Suchmaschinen-Spamming dabei werden z. B. Blogs missbraucht, um in den Kommentaren Links auf Websites zu platzieren (um Backlinks zu generieren) 
  • Wenn Linkverfolgung durch Suchmaschinenroboter unerwünscht ist und nur unnötigen Datenverkehr verursachen würde - z. B. Links, die zu Druckansichten führen oder Bewertungs- und andere Feedback-Funktionen auslösen.
  • Um dem Crawler zu sagen, dass er doch bitte nicht dem auf meiner Seite verlinkten Pixelio-Bild folgen, sondern auf meiner Seite bleiben und die Rechenzeit ausnutzen soll, um meine Seite auszulesen.
Meta-Tags kann man hier herauskopieren: http://www.w3schools.com/tags/tag_meta.asp

 

Google-Ranking

Infografiken:
Aus diesen 200 Faktoren sollte man seine Lieblingsdisziplinen wählen, an denen man kontinuierlich arbeiten will.

Freitag, 11. April 2014

Tag 6: 4 Lerntypen

Bei der Ansprache von Lesern und (potenziellen) Kunden sollte man immer die 4 Lern-Typen bedenken:
  • Der emotionale Typ:
    "Denken Sie an Ihre Altersvorsorge!"
  • Der Beweistyp:
    "Ihre Altersvorsorge ist nicht gesichert, das beweisen Studien."
  • Der Schritt-für-Schritt-Typ:
    "Lesen Sie den Text über die Altersvorsorge, klicken Sie auf den Button darunter und
    geben Sie Ihre E-Mail-Adresse ein."
  • Der konkrete Typ:
    "Melden Sie sich zu unserem Newsletter an!" --> direkte Handlungsaufforderung

Tag 5: Die drei Musketiere

Die 3 serverseitig wichtigsten SEO-relevanten Dateien
... die auf dem Server im Stammverzeichnis (root) vorhanden sein müssen, damit der Webcrawler sauber durch die Seite gehen kann:
  • robots.txt --> Türsteher mit Gästeliste: Wer darf wo rein?
  • sitemap.xml --> Speisekarte: Was gibt's denn hier?
  • .htaccess --> fängt Fehlercodes vom Server ab
Alle drei Dateien müssen im Stammverzeichnis auf dem Server liegen.
.htaccess
  • = Hypertext Access
  • kann mit Fehler-, Server-, Response-Codes arbeiten
  • hier die serverspezifischen Eigenschaften anlegen
  • Fehlerseiten und Weiterleitungen werden dort festgelegt (Benutzerfreundlichen Fehlerseiten sind SEO-technisch wichtig!) 
  • www-Klärung: Es gibt Domains mit und ohne www. Ich muss mich entscheiden, ob mit oder ohne! In .htaccess definiere ich die entsprechende Weiterleitung. Ansonsten interpretiert der Crawler dies als duplizierte Inhalte und zieht mir Punkte ab. --> 301-Weiterleitung vermeidet Duplicate Content
  • 301-Weiterleitung ("Moved Permanently") bei Umzug gehört hier hinein 
robots.txt
  • Robot = Crawler = User-Agent
  • Kommt ein Crawler auf die Site, liest er zuerst die Datei robots.txt aus. Dort kann ich festlegen, ob und wie die Website von einem Crawler ausgelsen werden darf (Verzeichnisse oder Unterseiten)
  • Türsteher: sagt dem Crawler, was er (nicht) darf -
    z. B. welche Bereiche/Dateien der Website nicht durchsucht/indexiert werden solle (private Bilder o. ä.)
  • Wird als erste Datei vom Crawler ausgelesen und legt fest, wie und ob die Website vom Crawler besucht werden darf.
  • Man sollte immer eine robots.txt haben, auch wenn sie leer ist. 
  • Um zu prüfen, welche Seiten indexiert sind: Google-Suche "site:http://etc." 
  • Wenn Seiten ungewünscht auftauchen: in robots.txt ausschließen 
  • (Alternativ) bei Neuentwicklung der Seite: direkt im CMS für Suchmaschinen sperren
  • Alternativ können Crawler auch durch Meta-Elemente im HTML-Quelltext einer einzelnen Website am Indexieren gehindert werden:
  • Meta-Elemente
    • revisit-after: sagt Crawler, wann er wiederkommen soll. Aber: Wenn's dann nichts Neues gibt, ist das doof. Grundsätzlich entwickelt Crawler seinen eigenen Algorithmus, wann er vorbeischaut (je nachdem, wie oft man veröffentlicht)
sitemap.xml
  • Sitemaps-Protokoll ist nur für den Crawler zu sehen, nicht für den menschlichen Besucher -  ≠ HTML-Sitemap, die dem User angezeigt wird! 
  • Speisekarte - sagt Google, was es hier Feines gibt
    (zeigt dem Crawler die Seiten meiner Website, die er auslesen soll) 
  • Sollte nur die 
  • CMS bieten Plug-ins für die Sitemap, ansonsten gibt es Sitemap-Generatoren.
    Nur erstere uptaden die Sitemap, wenn neue Inhalte eingestellt werden.
  • Frequency: nicht ändern
  • Priority: Die Links in der Seite können gewichtet werden (nur in ganz speziellen Fällen, z. B. die jünsten Meldungen bei News-Agenturen)
  • Fehlt die Sitemap, gibt's SEO-technisch Punktabzug! (Darüber hinaus hat es bei kleinen Seiten keine großen Auswirkungen, wenn die Sitemap fehlt. Wenn Seite aber wächst, hat der Crawler evtl. nicht die Zeit, sich bis ganz zum Ende, wo die neuen Beiträge liegen, durchzucrawlen. Dann dauert es sehr lange, bis die neuen Beiträge indiziert werden.
  • Reihenfolge beachten: Wenn man zuerst die Sitemap erstellt, der Crawler diese schon ausgelesen hat, und ich dann Bereiche in der robots.txt ausschließe, ist der Crawler verwirrt und es kommt zu Fehlern!
Klausur: "Was sind die drei wichtigsten Dateien serverseitig?"
  •  Wikipedia-Einträge zu den 3 Dateien lesen 
  • Frage z. B.: Was macht SEO-technisch Sinn? (Eine falsche Antwort wäre: "In robots.txt soll 'disallow' angeben werden")

Mittwoch, 9. April 2014

Tag 4: Keyword-Recherche, Google AdWords

Keyword-Recherche

  • Mit welchen Keywords ist man auf welcher SERP-Position?
    Bevor man sich entschieden hat, hat man mindestens 200 Wörter gegengetestet. Davon wählt man die 10 besten aus und testet dieses nochmal.
  • Es gibt Tools, die diesen Prozess erleichtern (Keyword-Ideen finden und analysieren) - z. B. Google Keyword-Planer (Google AdWords --> Tools). Danach legt man die Domain fest.
  • Alles mit > 1.000 Suchanfragen im Monat hat ordentlich Konkurrenz! "Wettbewerb" bedeutet hier "Anzeigenwettbewerb"
  • Für kleine Projekte:
    Suchanfragen mit 200 bis 500 Suchanfragen wählen, da hat man Erfolge.
    --> kann man sich per Filter anzeigen lassen 
  • Dann kommt der Content. Zunächst: Baustellen-Seite.
  • Erstmal checken, welche organischen Suchergebnisse auf der SERP (Search Engine Result Page) erscheint, wenn ich meine gewünschten Keywords eingebe.

Konkurrenzseiten verstehen

  •  dazu SeoQuake installieren!
  • Auf der Google-SERP erscheint Info-Zeile unter Suchergebnissen.

Page Rank

  • Klausur! 
  • Kombination aus Anzahl und Stärke/Vertrauenswürdigkeit der Backlinks.
  • Wert von 0 - 10; je mehr, desto besser!
  • (USA Government Site hat PR von 10 (alle Auswandererer), ansonsten fast nix! Möglicherweise Adobe.) Kleine Projekte erreichen PR 3 - 5. Danach wird es immer noch schwerer, noch weiter nach oben zu kommen.
  • Aber: PR (allein) sagt nichst darüber aus, wo Seite auf SERP erscheint
  • PR stellt sich immer auch im Vergleich zu anderen Seiten dar
  • Links werden unterschiedlich bewertet:
    Backlink einer Uni-Seite sind z. B. sehr hochwertig und bringen mich schneller nach vorne. Mit Backlinks von kleinen Seiten, die selbst nur geringen PR von 1 oder 2 haben, dauert es länger. 
  • Ziel: Generierung vertrauenswürdiger Backlinks!
  • Es gibt über 200 Gründe für die SERP-Position.
    Diese sind nur vage bekannt - Google hält den Algorythmus geheim.
  • Wenn man bei Google Begriff eingibt, werden nur die Google-Server durchsucht - nicht das Internet! (z. b. alle unsere Rechner zählen zum Internet hinzu! Das Internet sind Millionen kleine Rechner, die miteinander vernetzt sind.) Das ist das Problem einer neuen Seite, die im Google-Index noch nicht drin ist.
  • Wenn die einzelne Unterseite auf der SERP einen gerinen Page Rank haben, können wir diese Seite evtl. schlagen, auch wenn sie von einer großen Top-Level-Domain kommt (z. B. welt.de).
  • Die einzelnen Seiten einer Website haben unterschiedliche Page Ranks! Z. B. kann die Startseite einen geringeren PR haben als eine besonders relevante Unterseite (z. B. Produktseite im Shop). Ergo: Für externe Verlinkungen die tatsächlich relevante Seite weitergeben!

Crawler/Suchmaschinenroboter

  • Suchmaschinenroboter geht von Seite zu Seite und guckt, ob sich auf der Seite was verändert hat. Checkt, was hinter den Links liegt. 
  • Wenn dort eine neue Domain liegt, wird diese erkannt und dem nächsthöheren Server gemeldet (großer Bruder). Der Crawler selbst liest die Seite noch nicht aus. (571 neue Websites werden pro Sekunde weltweit erstellt!) 
  • Dieser nächsthöhere Server schaut sich dann die Seite genau an (auch mal erst nach ein paar Tagen). 
  • Der Text wird in Hexadezimal-Code umgewandelt, da sich Zahlen leichter/schneller vergleichen lassen . Wenn diese Zahl der von bereits bestehenden Websites ähnelt, kommt die Seite nicht in den Index --> Duplicate Content.
  • Der Crawler muss immer erkennen können, wenn es auf meiner Seite etwas Neues gibt. Der Crawler sucht nicht immer komplette Site durch!  Dazu Sitemap-XML erstellen, die dem Crawler zeigt, was es Neues gibt (ist nicht die HTML-Sitemap, die man auf Seite sieht!).

Alexa.com


  • Alexa-Rank wird in SeoQuake-Leiste angezeigt. Berücksichtigt u. a. Besucherzahlen, Verweildauer etc.
  • Je größer Alexa-Rank, desto eher kann man Seite angreifen.
  • Alexa-Rank < 10.000: Seite ist sehr stark und auf der SERP schwer zu schlage,!
  • Keywords / Phrase in: Titel, Domain, (Text)?
I = Index = Seiten auf der Site


Domainname 

  • checkdomain.de
  • Checken, ob Domainname noch verfügbar ist.
  • Besteht die Domain aus mehreren Wörtern, sollten diese mit Bindestrichen getrennt werden
    --> kann Crawler leichter auslesen
  • woorank.com
    Tool zur Seiten-Analyse zwecks SEO
    Eigene Seite + Konkurrenz-Seiten analysieren!
    --> Ziel Nr. 1: 50 Punkte erreichen (viel mehr geht am Anfang nicht, da die Seite ja z. B. noch nicht extern verlinkt ist und so Punkte sammeln kann)

Blog 

  • sollte auf der eigenen Domain verortet sein --> positiv für SEO 
  • Mit einem Blog produziert man schnell Unterseiten!
  • Foren: Jeder Beitrag wird auf Unterseite abgelegt --> zählt als Einzelseite
  • Wenn man extern auf anderen Seiten kommentiert, führt das auf lange Sicht zu Klicks, weil Besucher über die Kommentare auf meine Seite kommen.

Links

  • No-follow = Links, die von Google nicht gewertet werden (Juice)
  • Links: Juice fließt. Links sind in alle Richtungen wichtig - ich muss auch mal was nach außen abgeben :)
  • Inbound- vs. Outbound-Marketing
    Video auf MarketSamurai (Leopard-Fotograf-Story) (Inbound-Marketing = Köder auslegen)

HTTP-Statuscode

  • 302-Umleitungz. B. wenn Seite kaputt ist und ich vorübergehend mit Weiterleitung arbeiten muss: 302-Umleitung leitet nur den Besucher weiter, das Vertrauen der Seite bleibt erhalten!
  • 500: Internal Server Error
    Schlecht, weil man nicht weiß, was passiert ist
    --> Schritte rückgängig machen, die man direkt vor Fehler gemacht hat
  • 404-FehlerseiteErscheint statt: "Die Seite, auf die Sie zugreifen möchten, existiert nicht. Bitte wählen Sie eine Seite vom Hauptmenü."
    --> Schlecht für Usability
    --> schlecht fürs Ranking
  • Duplicate Content vermeiden:
    Vom Hoster bekommt man immer 2 Domains: mit und ohne www. Google erkennt das als Duplicate Content! --> Weiterleitung einrichten! Ansonsten kommt man nicht nach oben.
  • Vertrauensindikationen
    sollten möglichst hoch sein - liegen aber am Hoster und können von uns nicht direkt beeinflusst werden.
  • W3C-Validierung 
    Fehler im HTLM-Code) --> Schwergewicht für die PR!
    Fehler lassen sich finden mit validator.w3.org
  • Verwirrende Wörter vermeiden
    z. B. alles, was mehr als eine Bedeutung haben kann: Staubecke, Bank --> lieber konkret definieren: Gartenbank
  • Short-Tail vs. Long-Tail-Keywords
    - Short-Tail (1-2 Wörter): mehr Suchanfragen, aber auch generischer
    - Long-Tail: spezieller, zielgruppenspezifischer. Ist bei Anzeigen teurer - denn wenn jemand nur "Schuhe" sucht, weiß ich ja gar nicht, ob der auch welche kaufen will!

Link-Tipps


Klausur: Wie würden Sie bei Keyword-Recherche vorgehen? 

Zunächst muss ich mir Gedanken machen, wie mich jemand findet.
(Tools reinwerfen: MarketSamurai, SEOquake etc.)

 Z. B.:  Mit Keyword Planer schauen, mit welchen Wörtern gesucht wird.
Dann Konkurrenz ausfindig machen und analysieren. 


Für kleines Projekt ca. 200 Keywords checken.
Daraus die 10 wichtigsten/besten definieren. 
Das/die stärkste/n wähle ich als/im Domain-NamenDavon das wichtigste wird meine Domain. 
Die anderen Keywords kann ich dann auf die verschiedenen Seiten verteilen. 
Ich kann aber jede Seite nur auf ca. ein Keyword optimieren, weil man sonst quasi jedes zweite Word ein Keyword sein müsste!!

Dann Werbung definieren/schalten etc.