Was ist ein PBN (privates Blognetzwerk)?

Aus aktuellem Anlass erkläre ich, wie private Blognetzwerke aufgebaut sind. Dabei handelt es sich ausdrücklich nur um eine Definition, keine Anleitung oder Empfehlung. Private Blognetzwerke sind riskant, resultierende Rankingvorteile allerhöchstens kurzfristig!

Ein privates Blognetzwerk (kurz: PBN) besteht aus vielen Domains, die ein und derselben Person gehören bzw. von ihr kontrolliert werden (darum “privat”).

Ziel ist es, schnell und günstig Inhalte auf vielen Unterseiten dieser Domains aufzubauen, wo dann im Textkontext optimierte Links auf ein oder mehrere Hauptprojekte gesetzt werden können (s. Abbildung).
Das Hauptprojekt (auch: “Money Site”) soll durch die große Zahl von vermeintlich themenrelevanten Links in den Suchergebnissen bessere Rankings für wertvolle Suchbegriffe (“Money Keys”) erzielen.

privates Blognetzwerk schematische Darstellung-small

Schema eines privaten Blognetzwerkes (vereinfachte Darstellung)

In der Regel handelt es sich dabei um selbst gehostete Domains, also keine Subdomains von wordpress.com, tumblr.com o. ä., da diese mehr “Power” durch die Links weitergeben können.
Meist befinden sich unter den Domains auch expired Domains. Expired Domains sind Internetadressen, die schon einmal genutzt, dann aber aufgegeben wurden. Sie können von jedermann und oft zum günstigen Preis erstanden werden – häufig muss nur eine Registrierungsgebühr bezahlt werden, genau wie bei einer ganz frischen Domain. Externe Links zu so einer Domain mit ehemals echten Inhalten sind häufig noch vorhanden.

Klingt doch super. Soll ich das für meine Seite machen?

Nein, bitte nicht! Wer eine ernsthafte Website betreibt und diese auch in der langfristigen Zukunft noch erfolgreich betreiben möchte, sollte Abstand von dieser Strategie nehmen. Google und andere Suchmaschinen mögen Blognetzwerke (ob nun privat oder öffentlich) nämlich gar nicht und gehen im Rahmen ihrer Möglichkeiten dagegen vor, beispielsweise mit manuellen Maßnahmen. Der Grund dafür ist auch gut nachvollziehbar. An der schematischen Darstellung lässt sich schon erkennen, dass das ganze Geflecht von Inhalten und Links überhaupt nicht für menschliche Nutzer gemacht ist. Die Texte der Blogposts sind häufig Ergebnisse von Spinning oder von automatischen Übersetzungen anderer Posts, echter Mehrwert für echte User fehlt. Um dieses Prozedere den Suchmaschinen nicht direkt unter die Nase zu reiben, geben sich PBN-Profis alle Mühe, keine Spuren (footprints) zu hinterlassen, die auf den gemeinsamen Besitzer aller Domains hindeuten (z. B. gleiche Designs und Impressen, identische IP C-Klasse, …).

Es ist frustrierend zu beobachten, wie andere mit dieser Technik schnell und billig weit oben in den Suchergebnissen erscheinen. Diese Erfolge sind jedoch in den allermeisten Fällen von kurzer Dauer und Suchmaschinen werden laufend besser darin, diese Netzwerke aufzudecken.



via Was ist ein PBN (privates Blognetzwerk)? http://ift.tt/1rHC57z

Linkaufbau Monatsrückblick September 2014

Endlich war wieder was los bei den SEOs und besonders im Bereich Linkbuilding. Meine Leseempfehlungen des Septembers, unter anderem:
+++ Tipps für Linkaufbau-Einsteiger +++ Studie zu Ranking-Faktoren +++ SEO-Wettbewerbe und Diskussion um Black-Hat SEO und PBN +++

Linkaufbau

Eine gute, neu aufgelegte Ressource für Einsteiger ins Thema Linkaufbau wird seit kurzem bei MOZ zur Verfügung gestellt – Der Beginner’s Guide to Link Building:
http://ift.tt/1kTRrUY
Wer sich einen schnellen Überblick verschaffen und Grundlagen lernen möchte, dem kann ich diese Informationen empfehlen.

Searchmetrics hat in diesem Monat ein aktuelle Studie zu den Ranking Faktoren bei Google veröffentlicht:
http://ift.tt/YqeaOO
Die Ergebnisse sind leider nur eingeschränkt interpretierbar, da es sich lediglich um Korrelationsdaten handelt. Die Kernaussagen fasse ich hier trotzdem zusammen:

  • guter Content wird weiter wichtiger (Textlänge, semantische Tiefe, Multimedia, Nutzersignale)
  • Die Anzahl der Backlinks bleibt wichtig. Noch wichtiger ist inzwischen aber die Qualität der Backlinks
  • Auch technische Aspekte von Seiten haben einen größeren Einfluss (z. B. interne Verlinkung, Ladezeiten)

In der deutschen SEO-Szene kam nach den letzten SEO-Wettbewerben (“XOVILichter” und “RaketenSEO”, einfach mal googeln ;) ) eine interessante Diskussion um private Blognetzwerke (PBN) und Black-Hat Suchmaschinenoptimierung auf. Stein des Anstoßes war der Beitrag von Martin Mißfeldt, in dem er offen seine Frustration darüber ausdrückt, dass solche Techniken immer noch funktionieren, wenn auch nicht langfristig:
http://ift.tt/1stEimX

Auch Julian Dziki hat sich dazu geäußert. Er vertritt hier ebenfalls die Meinung, dass solche Strategien allerhöchstens kurzfristig Erfolg haben:
http://ift.tt/1BI771Z

Felix Beilharz hat wiederum Beispiele gefunden, die fraglich erscheinen lassen, wie kurzfristig die Rankingvorteile tatsächlich sind, oder ob Google einfach nicht in der Lage ist, die eigenen Vorgaben an Webmaster zu kontrollieren und durchzusetzen:
http://ift.tt/1otDMQX

Nicolas Sacotte zeigt viel mehr Verständnis für Black-Hat SEOs als seine Kollegen: Solange man Geld mit solchen Methoden verdienen könne, sei das Vorgehen legitim und nicht ohne Grund schon seit Jahren gängige Praxis.
Er zeigt dazu auch ein Beispiel aus der Praxis (#1 Ranking für “Strompreisvergleich”), welches ironischerweise inzwischen schon wieder komplett aus den Suchergebnissen verschwunden ist:
http://ift.tt/YObydN

Auch dieser Bericht bei SearchEngingeLand über händische Maßnahmen gegen private Blognetzwerke zeigt Googles unbedingten Willen, solche Praktiken zu verbannen:
http://ift.tt/1uiHGD8

Insgesamt möchte ich zu Black-Hat SEO und PBN Folgendes festhalten:
Wer eine ernstzunehmende Website betreibt und diese auch im nächsten Jahr noch betreiben möchte, der sollte die Finger von solchen Methoden lassen. Es mag verlockend aussehen, wenn man schnelle Erfolge bei anderen beobachtet. Genau so schnell folgt dann aber allzu häufig der Absturz.

Content

Wie im Linkbuilding, kann ich auch zum Thema Content im September eine Ressource für Einsteiger empfehlen. Die Experten von Contently haben sich die Zeit genommen, 18 Fragen ihrer Community zu beantworten, z. B. “Wie viele Inhalte soll ich denn schaffen?” oder “Soll ich Inhalte besser selbst erstellen oder erstellen lassen?”
Die Antworten sind kurz und präzise ohne dabei zu flach zu bleiben:
http://ift.tt/1uSXhIi

Markus Hövener hat sich Gedanken dazu gemacht, wie man die häufigsten Argumente GEGEN Content-Marketing aushebelt und welche davon überhaupt gerechtfertigt sind. Sein Fazit: Eigentlich gibt es nur ein Argument, das zählt.
Neugierig? Hier klicken: http://ift.tt/1r7UXMM

Klaus Eck vertritt ebenfalls immer leidenschaftlich seinen Standpunkt “Pro Content-Marketing”. Das Beispiel von Kraft Foods spielt ihm dabei in die Karten, denn Krafts Director of Data, Julie Fleischer, setzt komplett auf Content.
Hier sein Blick darauf:
http://ift.tt/1wzPyBd

Ebenfalls von MOZ und – wie der Beginner’s Guide to Link Building – von Autor Paddy Moogan stammt dieser lesenswerte Beitrag zur Erstellung von erfolgreichen Inhalten:
http://ift.tt/1D9H9pN
Hier zeigt er unter anderem, wie man vor der Erstellung von Inhalten sicherstellt, dass die Idee Potenzial hat.
Sein Tipp #3 (Für die Verbreitung von Top-Inhalten auch kostenpflichtige Plattformen nutzen) wird momentan meiner Meinung nach noch unterschätzt. Ein guter Wink für die Zukunft im Content-Marketing also.

Zuletzt möchte ich noch auf das suchradar-Webinar mit Dr. Asokan Nirmalarajah über Content, SEO und Online PR hinweisen, das Anfang September stattgefunden hat. Wer es verpasst hat, kann sich bei YouTube den kompletten Mitschnitt ansehen:

 

Inspiration

Besonders schön finde ich Beispiele, die zeigen, wie sich Kreativität auszahlt. In diesem Fall geht es um eine Seite, die sich für defensives Fahren im Straßenverkehr einsetzt. Auf der Website wurde ein Bereich aufgebaut, der bei der Planung eines Roas Trips helfen soll. Unter anderem mit Playlists mit den besten Songs für so einen Trip. Damit hat die Seite es sogar auf die Startseite von reddit.com geschafft und so jede Menge Publicity gewonnen:
http://ift.tt/1q7v4gt
Hier der Subreddit dazu:
http://ift.tt/WGhRhP

Ich hoffe, es war wieder für viele etwas Wissenswertes dabei. Wenn ja, dürfen gerne die “Teilen”-Buttons hier unten geklickt werden. Über Rückmeldungen und Meinungen in den Kommentaren freue ich mich auch!
Zum Schluss bleibt nur, einen erfolgreichen Start in den Oktober und ein schönes langes Wochenende zu wünschen.



via Linkaufbau Monatsrückblick September 2014 http://ift.tt/1otDOZ0

39 Dinge, die dein Business braucht, bevor du überhaupt an Linkbuilding denken solltest

Meistens fangen Webmaster zu früh an, Linkbuilding für ihre Webseite zu betreiben. Getreu dem Credo “Wir brauchen schnell gute Rankings” werden, sobald die Webseite steht, die ersten Links gesetzt. Das Alleinstellungsmerkmal definieren Was ist das Besondere an Eurem Produkt oder Eurer Webseite? Wie hebt Ihr Euch von anderen ab? Definiert ein klares Alleinstellungsmerkmal. “Gute Qualität […] weiterlesen

The post 39 Dinge, die dein Business braucht, bevor du überhaupt an Linkbuilding denken solltest appeared first on Seokratie.



via 39 Dinge, die dein Business braucht, bevor du überhaupt an Linkbuilding denken solltest http://ift.tt/1otAiOu

Ausgehende Links und SEO

Wie wirken sich ausgehende Links aufs Ranking einer Domain aus? Oftmals vergessen viele SEOs, dass nicht nur die eingehenden Links ein Rankingkriterium  sind – sondern auch die ausgehenden! Schwächen ausgehende Links meine Seite? Geht Linkjuice verloren? Geht man von der Pagerank Theorie aus, dann ist es tatsächlich so, dass externe Links auf den ersten Blick […] weiterlesen

The post Ausgehende Links und SEO appeared first on Seokratie.



via Ausgehende Links und SEO http://ift.tt/1vo2Uyr

Panda Update 4.1 ausgerollt – Gewinner / Verlierer für Google.de

Google Panda Update 4.1Der neue Panda ist da. Circa vier Monate nach Panda 4.0 hat Google am Donnerstag über das Google+-Profil eines Mitarbeiters angekündigt, dass die Suchmaschine bereits seit Anfang der Woche dabei ist, einen verbesserten Panda-Algorithmus auszurollen.

Eigenen Angaben zufolge handelt es sich um einen langsamen Rollout, der sogar noch bis zur nächsten Woche andauern soll. Circa 3-5% der Suchanfragen sollen betroffen sein.

Die Daten sind auch für Deutschland bereits in der Searchmetrics Suite – Gewinner/Verlierer live und abrufbar.

“Neue” Signale für Content-Qualität

Panda Updates fokussieren die Qualität von Content und sollen redundante, irrelevante Inhalte sowie Spam aus dem Index befördern – da erzähle ich nichts Neues. Interessant ist, dass anscheinend erneut kleinere und mittlere high-quality Seiten von dem, Update profitieren sollen.

Panda 4.1 g+-postBasierend auf Feedback sowohl von Usern als auch von Webmastern sind wohl neue Signale und Möglichkeiten entdeckt worden, die den Panda dabei unterstützen, minderwertigen Content noch besser zu erkennen und gezielt herauszufiltern.

Nach dem letzten großen Update Panda 4.0 scheint es sich dem Anteil der Suchanfragen und der Kommunikation nach um eine „kleinere“ Iteration zu handeln. Searchengineland nennt dieses 27ste Update aus der Pandafamilie deshalb auch „Panda 4.1“.

Schauen wir in die Daten.

Panda 4.1 Gewinner und Verlierer in Deutschland

Zunächst sei erneut darauf hingewiesen: Die folgenden Daten beruhen auf der organischen SEO Visibility je Domain für alle untersuchten Keywords im Vergleich zum letzten Datenpunkt. Der tatsächliche Traffic je Domain – so zum Beispiel Brand- und/oder direkter Traffic etc. – kann bezüglich der Entwicklungstendenzen von den hier angegebenen Werten naturgemäß abweichen.

Google.de – Verlierer (relativ) Panda Update 4.1

Hier eine gefilterte Übersicht – geordnet nach prozentualem Verlust. Bitte bedenkt dass ein kausaler Zusammenhang nicht immer mit Panda bestehen muss, sondern auch technische Probleme bei der Domain sein können oder z.B. Redirects wie bei nokia.com.

Domain – Verlierer Vorher Nachher Prozent
berliner-stadtmission.de 8.608 774 -91%
ebn24.com 3.164 481 -85%
plan-deutschland.de 4.572 1.157 -75%
racechip.de 7.317 1.943 -73%
academic.ru 4.620 1.324 -71%
nokia.com 77.541 24.702 -68%
issitedownrightnow.com 48.511 16.734 -66%
pearltrees.com 5.064 1.846 -64%
superrepo.org 3.318 1.222 -63%
onlinemarktplatz.de 4.801 1.816 -62%
arcor-angebote.de 11.070 4.466 -60%
mcgutschein.net 3.343 1.354 -59%
bibb.de 6.072 2.617 -57%
lyricstranslations.com 3.941 1.706 -57%
bitzli.ch 3.065 1.349 -56%
maxi-cosi.de 4.337 1.932 -55%
singleboersen-experten.de 12.985 5.852 -55%
unblocker.yt 9.951 4.601 -54%
gutschein-wurst.com 17.808 8.271 -54%
worldoftanks.com 3.240 1.541 -52%
medterms.com 4.787 2.320 -52%
guardianlv.com 3.333 1.663 -50%
findthebest.com 12.078 6.376 -47%
deadspin.com 4.683 2.480 -47%
distractify.com 3.575 1.895 -47%
ringhotels.de 3.539 1.889 -47%
game-oldies.com 3.592 1.945 -46%
planet-sports.de 11.134 6.068 -46%
moevenpick-hotels.com 6.843 3.743 -45%
gedichte.vu 7.111 3.952 -44%
faszination-fankurve.de 3.586 2.021 -44%
swp-potsdam.de 3.135 1.769 -44%
oprah.com 5.754 3.251 -44%
tv14.de 4.903 2.774 -43%
albaberlin.de 4.062 2.340 -42%
abbreviations.com 6.377 3.727 -42%
oeffnungszeitenbuch.de 61.910 38.205 -38%
androidmag.de 6.592 4.085 -38%
synonym.com 6.667 4.150 -38%
pokerstars.com 6.781 4.251 -37%
eigene-ip.de 6.152 3.924 -36%
katalog-stadt.com 7.445 4.852 -35%
iphone-ticker.de 19.382 12.635 -35%
stadtbranchenbuch.com 68.299 44.871 -34%
excite.de 7.988 5.249 -34%
suite101.de 10.526 6.920 -34%
klicksafe.de 11.154 7.339 -34%
connect.de 111.910 73.838 -34%
fem.com 43.654 28.834 -34%
glotzdirekt.de 30.652 20.276 -34%
pnp.de 15.009 9.948 -34%
dfbnet.org 16.938 11.294 -33%
oxforddictionaries.com 23.184 15.524 -33%
topuniversities.com 7.479 5.025 -33%
schneider.de 6.190 4.172 -33%
findthebest.de 6.452 4.358 -32%
hit1.de 7.028 4.766 -32%
pimkie.de 7.895 5.389 -32%
barbie.com 22.997 15.838 -31%
homoeopathie-liste.de 6.454 4.447 -31%
okmagazine.com 6.551 4.549 -31%
test-der-singleboersen.de 13.209 9.185 -30%
levrai.de 27.406 19.121 -30%
prospektangebote.de 22.465 15.806 -30%
hubpages.com 9.519 6.704 -30%
autoscout24.com 17.920 12.647 -29%
elterngeld.net 9.721 6.877 -29%
dbautozug.de 15.018 10.664 -29%
simpsonspedia.net 9.186 6.540 -29%
callofduty.com 16.284 11.617 -29%
ehow.de 36.556 26.262 -28%
myfitnesspal.com 8.953 6.469 -28%
seekport.de 20.800 15.036 -28%
onlinespiele.org 7.826 5.724 -27%
alternato.de 10.914 8.001 -27%
kindergeld.org 8.831 6.503 -26%
berlinien.de 10.467 7.728 -26%
paketsendungsverfolgung.com 9.647 7.172 -26%
fussballgucken.info 10.569 7.885 -25%
deals.com 11.747 8.840 -25%
similarsites.com 60.012 45.222 -25%

Google.de – Gewinner (relativ) Panda Update 4.1

Hier eine gefilterte Übersicht der Gewinner – geordnet nach prozentualem Gewinn:

Domain – Gewinner Vorher Nachher Prozent
alternative-zu.de 544 10.298 1793%
thepiratebay.se 4.403 19.534 344%
livestreamfussball.org 1.861 6.305 239%
ofm-forum.de 1.620 5.040 211%
deingedicht.de 2.551 7.284 186%
jezebel.com 5.713 14.576 155%
mediamass.net 4.578 10.789 136%
tvtropes.org 4.191 8.993 115%
illinois.edu 4.212 8.786 109%
1a-stellenmarkt.de 2.909 5.920 104%
25hours-hotels.com 3.022 6.106 102%
washington.edu 6.636 13.088 97%
minecraft.de 3.553 6.837 92%
yourtango.com 2.850 5.203 83%
epochtimes.de 5.373 9.746 81%
santabanta.com 3.149 5.668 80%
lotto-news.de 6.687 12.029 80%
bu.edu 6.034 10.791 79%
thefreedictionary.com 106.720 188.038 76%
mein-wetter.com 4.374 7.696 76%
one.de 10.285 17.383 69%
bahn.com 24.799 41.768 68%
fh-dortmund.de 6.673 11.179 68%
dummies.com 5.716 9.560 67%
theatlantic.com 6.962 11.479 65%
spruechetante.de 9.707 15.453 59%
creativecommons.org 6.013 9.372 56%
smsvongesternnacht.de 6.944 10.785 55%
whoswho.de 12.531 19.391 55%
twenga.de 6.274 9.689 54%
debenhams.com 6.942 10.502 51%
thesaurus.com 23.892 36.036 51%
gutscheinpony.de 45.439 68.151 50%
geburtstags-tipp.de 7.705 11.534 50%
tippscout.de 29.970 44.605 49%
health.com 19.929 28.953 45%
tonspion.de 9.012 12.623 40%
testsieger.de 14.589 20.156 38%
utrace.de 14.219 19.554 38%
testberichte.de 453.539 619.206 37%
gute-banken.de 15.512 21.157 36%
lohnexperte.de 11.963 16.244 36%
techfacts.de 13.341 18.068 35%
preis.de 18.607 25.190 35%
preisgenau.de 17.448 23.563 35%
golyr.de 46.764 62.496 34%
urbia.de 27.588 36.793 33%
gutscheinsammler.de 92.184 122.684 33%
finanznachrichten.de 85.161 113.216 33%
netzathleten.de 11.725 15.437 32%

Fazit: Gutscheine und Contentscraper raus, (US-)Content für Brand-Keywords rein

Die 4.1-Iteration knüpft erwartungsgemäß an seinen Vorgänger an. Unter den Verlierern sind einige alte Bekannte anzutreffen. Zum Beispiel Gutscheinportale. Und da hilft eben auch keine .com-Domain:

Panda gutschein-wurst

Zunächst war die .de-Domain mit Panda 4.0 abgestürzt, nun hat es die recht frische .com-Domain getroffen. Ebenfalls raus (aber auch rein)geflogen sind wieder einmal einige Erwachsenenseiten. Wörterbücher haben es online immer schwer, mit eigenem, uniquen Content zu ranken. Auch einige Branchenportale haben wieder verloren. Generell sind viele Verlierer unter dem Hut “Content-Scraper” zusammenzufassen.

Übrigens rankt Microsoft nach der Übernahme von Nokia nun für nahezu alle Produkte mit der eigenen Domain auf Platz 1, während Nokia.com der Top-Loser absolut ist. Das hat aber mit Panda nichts zu tun, sondern liegt an dem Redirect von nokia.com zu Microsoft.

Auffallend viele .com-Content-Seiten haben von dem Update profitiert, aber hauptsächlich haben diese Domains, wie zum Beispiel Buzzfeed.com oder Hollywoodlife.com, für internationale Brand-Searches gewonnen (Promi-Namen wie Mary Kate Olsen) und ranken damit auch nicht ganz oben, aber nun eben auch im deutschen Index öfter auf der unteren ersten Seite. Auch einige US-Unis performen jetzt besser im deutschen Index.

The post Panda Update 4.1 ausgerollt – Gewinner / Verlierer für Google.de appeared first on .



via Panda Update 4.1 ausgerollt – Gewinner / Verlierer für Google.de http://ift.tt/YkABUU

Agentur auf Abwegen

Gestern niemanden erreicht? Könnte möglich sein. Unsere ganze Agentur-Yacht-Crew hat sich gestern nämlich auf eine ganz besondere Reise gemacht: Nach Ibbenbüren! Für viele als Metropole von Welt natürlich schon ein Begriff, beherbergt dieses Örtchen im Tecklenburger Land auch noch einen richtigen coolen Kletterwald!

Und hier waren wir dann gestern auch mit alle Mann und alle Frau an Bord. Am Vormittag haben wir gemeinsam erst einmal ein Team-Training absolviert. Und obwohl ja wirklich viel, viel komisches Zeug über diese Trainings erzählt wird (immer wieder gerne gehört: weibliche Coaches im mittleren Alter mit einer gut sichtbaren Ader für Esoterik, einer gestrickten grünen Jacke und grauen, wirren Haaren um die asymmetrische Brille, die dir dazu rät, dich „einfach fallen zu lassen“) war es echt richtig gut!

Unsere Trainerin Mona (übrigens: jung, attraktiv und witzig! :-) ) hat uns – ohne dass wir es gemerkt haben – im Laufe des Vormittags immer weiter zu „uns als Team heran geführt“ (mir fällt da keine bessere Beschreibung für ein).

20140925_100309

War die erste Übung noch ein bisschen holprig und zugegebenermaßen echt ungewohnt (wer umarmt schon gerne seine Kollegen reihenweise auf einem Baumstamm?) haben wir über die Tümpel-Rettungsübung (s.Bild: wer es nicht erkennt: außerhalb der Holzplatten war ein gefährlich brodelnder Lavatümpel), dem Lianen-Schwingen und diverser anderer Übungen es geschafft, am Ende uns aus einem mit Strom geladenen Hochsicherheitstrack zu befreien – und das halt tatsächlich nur, weil wir zusammen als Team uns gegenseitig geholfen haben! Sehr coole Erfahrung !

Gestärkt durch diesen super Vormittag sind wir dann noch in den Kletterwald zum Hangeln, Krackseln und Springen gegangen, was einfach mega Bock gemacht hat. Entsprechend müde und mit Muskelkater in tatsächlich allen Körperregionen sitzt heute übrigens das gesamte TEAM wieder an seinem Platze – falls ihr uns erreichen wollt! ;-)



via Agentur auf Abwegen http://ift.tt/1v8cR2Q

Kostenlose SEO Site Clinic von Bloofusion: Jetzt noch schnell anmelden…

Nach unserem AdWords-Webinar heute steigt im nächsten Monat schon wieder ein Webinar – diesmal eine SEO Site Clinic. Noch nehmen wir dafür Anmeldungen (und damit auch zu prüfende Websites) entgegen.

Am 31. Oktober findet von 10-11 Uhr unsere SEO Site Clinic statt, die ich mir diesmal mit unserem Head of Linkbuilding Andreas Schülke teile: Er macht die Offpage-Analyse, ich die Onpage-Sachen.

Aus den eingereichten Websites (optional) wählen wir insgesamt ca. fünf Sites aus. WICHTIG: Man kann an dem Webinar auch teilnehmen, ohne seine Website auf den Prüfstand stellen zu lassen.

Die fünf Sites schauen wir uns dann genau an: Was sind typische Problemfelder von Websites? Wie erhält man einen schnellen Überblick über die Aspekte, die man optimieren kann?

Also, wer dabei sein möchte, kann sich noch schnell kostenlos anmelden:
http://ift.tt/1a0elRS
(und natürlich auch für die weiteren Webinare im November und Dezember)



via Kostenlose SEO Site Clinic von Bloofusion: Jetzt noch schnell anmelden… http://ift.tt/1rjJLgU

AdWords-Anzeigen mit lokaler Produktverfügbarkeit kommen nach Deutschland

Google hat angekündigt, die local inventory ads nun auch in Deutschland, Frankreich, Großbritannien, Japan und Australien verfügbar zu machen. Damit lassen sich Produkte im stationären Einzelhandel bewerben, ohne dass diese auch online bestellbar sein müssen.

Interessant sind die “Anzeigen mit lokaler Produktverfügbarkeit” naturgemäß nur für Händler, die Produkte auch oder exklusiv stationär verkaufen. Diese können damit auf Produkte hinweisen, die in Läden in der Nähe zu finden sind. Wie von Produktlistenanzeigen gewohnt werden die Produkte mit Bild und Preis beworben.

Ein Klick auf die Anzeige führt dann zu einer Übersichtsseite, wo der jeweilige Standort zusammen mit den Produktinformationen und dem weiteren Sortiment aufgeführt wird (“local storefront”). Das folgende Beispiel kommt von Google:

lia

Für die Anzeigen mit lokaler Produktverfügbarkeit verzahnt Google einmal mehr verschiedene Dienste:

  • Produktdaten werden über das Merchant Center eingestellt.
  • Die Standortverwaltung findet bei My Business statt.
  • Die Aussteuerung erfolgt über Google AdWords.

Händler, die von dieser Neuerung Gebrauch machen wollen, müssen dazu zwei neue Feeds einrichten: einen Feed für die Daten der lokalen Produkte und einen weiteren, in dem angegeben wird, wo die jeweiligen Produkte verfügbar sind. Eine Übersicht über die benötigten Feeds und deren Verknüpfung liefert diese Hilfeseite.

Verfügbarkeit

Obwohl das neue Anzeigenformat in den USA schon seit knapp einem Jahr im Einsatz ist und nun auch für Deutschland als “verfügbar” angekündigt wurde, ist es doch nicht ganz so einfach zu nutzen. Interessierte Händler müssen ihr Interesse zunächst per Formular bekunden.

Ausblick

Es dürfte spannend werden, inwiefern das neue Anzeigenformat hierzulande Anklang findet. Lokale Produktverfügbarkeiten an Google zu übermitteln setzt ein hohes Maß an Datenintegration voraus und ist mit dem Datenexport aus einem Online-Shop nicht zu vergleichen. Damit richtet sich das Format vor allem an große Händler, die entsprechendes zu leisten im Stande sind.

Spannend finde ich die Frage, inwiefern das für lokale Händler wirklich interessant ist. Einerseits ist das Potenzial, auf diesem Weg Kunden in die Läden zu locken, sicher enorm. Die Erfolgsmessung ist dabei nicht ganz einfach, aber auch nicht ganz unmöglich.

Andererseits sorgen stationäre Händler damit für ein Maß an Transparenz, dass es so bisher nicht gibt. Wer stationäre Preise wissen möchte, muss derzeit in den Laden gehen. Über Googles neues Anzeigenformat erübrigt sich das. Kunden könnten nun direkt sehen, dass der Fernseher im Laden viel teurer ist als bei der Online-Konkurrenz. Der dadurch entstehende Schaden wäre kaum zu messen.

Auch Wettbewerbsanalysen würden auf diesem Weg sehr einfach: Wann bekommt man schon die Möglichkeit, große Sortimentsbestandteile strukturiert online abrufen zu können?

Ich denke, dass es in einem Jahr so manchen Händler geben wird, der an dem Programm teilnimmt. Ob es sich auf breiter Front durchsetzen wird, bleibt abzuwarten.



via AdWords-Anzeigen mit lokaler Produktverfügbarkeit kommen nach Deutschland http://ift.tt/1B5WmV8

Bloofusion-Webinar: AdWords ausrichten

Diesen Freitag findet das nächste Bloofusion-Webinar statt. Das Thema richtet sich dieses Mal generell an alle, die mit AdWords arbeiten oder einfach wissen möchten, was damit möglich ist.

AdWords bietet eine Vielzahl von Möglichkeiten, Anzeigen auf Zielgruppen auszurichten. Das fängt beim Klassiker an: Keywords sind nach wie vor ein zentraler Bestandteil des Systems. Darüber hinaus gibt es jedoch viele weitere Möglichkeiten, in Suche und Display-Netzwerk genau die Nutzer anzusprechen, die man für die richtige Zielgruppe hält. Im Webinar gebe ich genau darüber einen Überblick.

Wie immer ist das Webinar kostenlos, die Anzahl der Plätze ist aber aus technischen Gründen limitiert – “solange Vorrat reicht”.

Die Eckdaten:

Webinar: AdWords ausrichten – ein Überblick
Termin: Freitag, 26. September, 10:00 Uhr
Referent: Martin Röttgerding

Jetzt kostenlos anmelden!

Alle Informationen, Themen und Termine zu unseren Webinaren gibt es unter http://ift.tt/1a0elRS.



via Bloofusion-Webinar: AdWords ausrichten http://ift.tt/1uDXg8Z

5 sichere Wege eine Panda Penalty zu bekommen

Für normale Menschen ist ein Panda nur ein Tier – für SEOs ist er eine Diagnose. In diesem Artikel werde ich nur kurz darüber schreiben wie Panda funktioniert und mich darauf konzentrieren wie man eine Panda Penalty bekommt. „Aber wieso sollte jemand so was wollen, Kevin?“ fragt ihr euch wahrscheinlich. Nun meine Freunde, wenn man weiß was man nicht tun soll, hilft dies dabei zu verstehen was man eigentlich tun soll. Dreht also diese fünf Faktoren um und ihr bekommt ein Rezept, um eine Panda Penalty zu vermeiden. Außerdem glaube ich stark daran, dass Maßnahmen gegen Panda den Weg zu langfristigem und Wachstum und Erfolg ebnen.

great-seo-success

Schauen wir uns kurz an wie Panda arbeitet: Panda ist ein Filter, der verhindern soll dass irrelevante bzw. Ergebnisse mit niedriger Qualität in den Suchergebnissen auftauchen. Die Logik dahinter funktioniert wie folgt: jede indexierte URL oder URL-Gruppe (Website oder Verzeichnis, was bedeutet dass auch nur ein Verzeichnis einer Site abgestraft werden kann)  bekommt einen Relevanz-Wert für eine Suchanfrage zugeschrieben. Navigationale Suchanfragen sind davon ausgeschlossen, da die Suchintention hinter ihnen klar ist. In diesem Fall modifiziert Google die Suchergebnisse nicht. Im nächsten Schritt werden Suchergebnisse nach Relevanz sortiert und in den SERPs ausgegeben (hier kommt der berühmt-berüchtigte Rankingalgorithmus ins Spiel). Dabei ist es wichtig zu wissen, dass die Qualität der SERPs ständig gemessen wird und zwar anhand von User-Signalen, was wiederum den Algorithmus beeinflusst. Panda ist ein selbstkorrigierendes System. Über die Faktoren, die dabei berücksichtigt werden, schreibe ich gleich mehr.

Außerdem wichtig ist, dass Panda nicht nur bestraft – er belohnt auch. Schau euch diesen Screenshot an und ihr versteht was ich meine:

seo-visibility-positive-example

Man kann hier sehr schön sehen, dass die SEO Visibility der Website von Ende November 2012 bis May 2014 sprichwörtlich ein „Loch“ hat. Sowohl am 21. November 2012, als auch am 19. May 2014 gab es einen Refresh des Panda-Algorithmus. Zum letzten Datum hin konnte die Website ihre ursprüngliche Sichtbarkeit wiederherstellen und sogar übertreffen, da sie die fünf folgenden Faktoren ausgebessert hat.

Auf der anderen Seite kann das Beachten der fünf Faktoren diese Folgen nach sich ziehen:

seo-visibility-negative-example

Aber natürlich würdet ihr dies niemals tun ;-) .

Durch dieses Video wissen wir, dass die Google Quality Rater eine wichtige Rolle bei der Bestimmung der Grenzwerte, die bei Panda eingesetzt werden, spielen. Die Erkenntnisse des neuesten Leaks der Guidelines stimmen perfekt mit den drei bestimmenden Erkennungsmerkmalen hochqualitativer Webseiten überein: Expertise, Autorität und Vertrauenswürdigkeit. Dieses Model ist äußerst abstrakt, deshalb möchte ich einen etwas greifbareren Ansatz liefern. Ich darf vorstellen: 5 Wege um eine Panda Penalty zu erhalten.

1. Schlechter Content

Der erste Weg, um eine Panda Penalty zu bekommen, lautet seinen Usern „schlechten Content“ zu liefern. Diesen kann man in fünf Kategorien einteilen:

  • Thin Content:

Stellt euch vor ihr habt eine Kategorie-Seite mit nur ein paar Zeilen bedeutungslosem Text und hunderten Produkten. Das nennen wir „Thin Content“. Suchmaschinen brauchen „Futter“, um Relevanz für einen Suchbegriff bestimmen zu können und alles was sie „lesen“ können ist Text. Wenn ihr kaum Informationen bereitstellt, wie sollen Suchmaschinen dann herausfinden worum es auf der Seite geht?

  • Gespinnter / automatisierter Content:

Oft stehen große Seiten / Marken vor der Herausforderung eine hohe Anzahl an Seiten mit Inhalt füllen zu müssen. Innerhalb der Lösung wird oft auf automatisierten Content zurückgegriffen, bei dem beispielsweise ein Vorlagentext mit Variablen individualisiert wird. Suchmaschinen sind keine großen Fans davon, da diese Texte of für User nicht sehr relevant sind. Wir reden dabei auch von gespinntem Content. Natürlich kommt es hier auf den Grad der Individualisierung an. Selbstverständlich kann man nicht für jede Seite einen einzigartigen Text schreiben, aber man sollte versuchen Inhalte so weit wie möglich für jede Seite zu individualisieren, um Usern maßgeschneiderte Inhalte bereitzustellen.

  • Aggregierter Content:

Eine weitere beliebte Möglichkeit Seiten mit Inhalt zu füllen ist das Zurückgreifen auf aggregierten Content von anderen Quellen. Wie wir in unserem Panda 4 Blog Post geschrieben haben, wurden besonders Aggregatoren von News, Gutscheinen, Software und Preisvergleichen hart von Panda getroffen. Während es also sinnvoll ist einen Teil des Contents mit Inhalten aus anderen Quellen anzureichern, sollte dies den eigentlichen Inhalt nie ersetzen. Es sei denn man möchte eine Panda Penalty ;-) .

  • Duplicate Content:

Wenn Content auf vielen Seiten zu ähnlich ist, sprechen wir von Duplicate Content. Schon seit Jahren ist dies ein Ranking-Killer und wir haben Waffen dagegen, wie Canonical Tags oder meta=index, doch trotzdem tritt er immer noch häufig auf. Es ist schwierig mit viel Duplicate Content überhaupt zu ranken und der Panda mag das gar nicht.

  • Irrelevanter Content:

Wenn Nutzer die Antwort auf ihre Frage auf einer Seite nicht finden, verlassen sie die Seite. Eine Seite kann für eine Suchanfrage relevant erscheinen, jedoch die Antwort nicht beinhalten. Stellt euch vor ihr habt eine Seite auf der ein Text mit dem Rezept für Spaghetti steht. Der Text beschreibt wie gut die Spaghetti schmecken, wer Spaghetti erfunden hat und wie sie aussehen. Das Keyword „Spaghetti Rezept“ steht in Title, Description, URL und im Content, aber die Seite beinhaltet nicht das eigentliche Rezept. In diesem Fall sprechen wir von irrelevantem Content, zumindest für das Keyword „Spaghetti Rezept“. Google hat die Möglichkeit aufgrund von User Signalen die Relevanz zu bestimmen, was mich zum zweiten Weg um eine Panda Penalty zu bekommen bringt.

Übrigens kategorisiere ich ebenfalls alten Content als irrelevant. Einige Themen benötigen konstante Updates, so zum Beispiel ein Text zum Thema „iPhone“. Über das erste und sechste Smartphone zu schreiben, sind zwei Paar Schuhe.

(Tipp: ein guter Weg, um einen hohen Anteil „schlechten“ Traffics herauszufinden, ist die Anzahl indexierter URLs gegen die Anzahl rankender URLs zu messen.)

2. Schlechte User-Signale

Wie in unserer kürzlich erschienenen Ranking-Faktor-Studie Ranking-Faktoren-Studie zu lesen war, legt Google großen Wert auf gute User Signale. Hier konzentrieren wir uns auf die vier Signifikantesten. Wenn der Panda also sauer auf euch sein soll, sollte auf Folgendes Wert gelegt werden:

  • Niedrige Klickraten

Wenn User nicht auf eure Resultate in den SERPs klicken, auch wenn Google diese testweise besser rankt, gibt es ein Problem. Dies zeigt entweder, dass das Snippet den User nicht zum Klicken motivieren kann, er die Marke nicht mag / kennt oder etwas anderes seine Aufmerksamkeit auf sich gezogen hat.

  • Hohe Bounce Rate

Wenn User auf ein Suchergebnis klicken, auf der Seite nicht das Gesuchte finden und auf die Suchergebnisseite zurückkehren, ist das in den meisten Fällen ein schlechtes Signal. Ich schreibe „in den meisten Fällen“, da es legitime Fälle gibt, in denen der User eine Seite kurz nach dem Aufruf wieder verlässt, z.B. wenn er nach Fußballergebnissen sucht. Meiner Meinung nach kann Google zwischen einfachen und komplexen Informationen unterscheiden (siehe Knowledge Graph).

  • Niedrige Time On Site

Wenn die Zeit, die ein User auf einer Seite verbringt, relativ niedrig ist, zeigt dies Google dass entweder der Inhalt keinen hohen Qualitätsfaktor hat oder die Seite nicht das versprochene liefert. Im Endeffekt scheint der User unzufrieden und dies wird als schlecht geliefert.

  • Niedrige Anzahl wiederkehrender User

Gute Inhalte werden von Usern immer wieder konsumiert (Stichwort „Evergreen Content“). Eine Website profitiert davon, da User immer wieder kommen und Google signalisieren, dass es sich um eine hochwertige Quelle zu einem bestimmten Thema handelt.

google-analytics

Wenn sichergestellt werden soll, dass diese vier Werte sich in die richtige Richtung entwickeln, sollte sie regelmäßig überprüft und gegen den Durchschnittswert der Website gestellt werden. Ein Beispiel: ihr wollt wissen, ob die Bounce Rate für eine bestimmte Seite bei 65% gut oder schlecht ist. In diesem Fall solltet ihr diesen Wert gegen die durchschnittliche Bounce Rate der Website stellen und daraus eine Bewertung ableiten.

Schlecht performende Seiten zu finden und zu überarbeiten ist eine grundlegende Aufgabe von SEOs. In einem späteren Kapitel schreibe ich über den Ansatz diese Seiten zu optimieren.

3. Schlechte Usability

Usability und User Experience sind mittlerweile Wissenschaften für sich, aber als SEO in 2014 sollte man für diese Themen zumindest Grundwissen aufbringen können. Es müssen keine multivariaten Tests für die Farbauswahl durchgeführt werden (obwohl ich es empfehle), allerdings sollte auf folgende Faktoren kein Wert gelegt werden, wenn ihr eine Schelle vom Panda kassieren wollt:

  • Design / Layout

Altertümliches oder hässliches Design ist eine Einladung für User schnell von der Seite zu verschwinden. „Hässlich“ ist sehr subjektiv, deswegen möchte ich lieber von Design, das dem von spammy Sites relativ ähnlich ist, schreiben. Das Aussehen einer Website ständig weiterzuentwickeln und regelmäßig einen Rebrush oder gar Relaunch durchzuführen, ist ein guter Anfang für User Experience Optimization

  • Navigation

Eine strukturierte Navigation ist ein absolutes „Must have“ für die Optimierung des sogenannten „Orientation Scent“. Während es für die interne Verlinkung und somit den Fluss von PageRank durch die Site essentiell ist, sollten User im Stande sein jedes Produkt und jeden Inhalt auf der Site zu finden und im Bestfall die Navigation intuitiv zu bedienen.

  • Mobile version

Ich muss heutzutage wohl nicht mehr auf die Wichtigkeit von mobilen Versionen einer Website hinweisen, darüber kann man mittlerweile an jeder Straßenecke etwas lesen. Aber vor allem in Bezug auf User Experience möchte ich hier nochmals darauf hinweisen korrekt auf die mobile Version weiterzuleiten und User nicht auf der Startseite oder einer 404 Fehlerseite enden zu lassen. Natürlich setzt dies voraus, dass man überhaupt eine mobile Version seiner Website hat. Dazu sagt Avinash Kaushik immer so schön:“ If you have a mobile version of your site, you’re now ready for 2008 “

  • 404 Fehler

Jede Seite sollte natürlich gesehen 404 Fehler ausgeben, z.B. wenn ein User eine falsche URL eingibt oder wenn eine URL nicht mehr existiert (wobei es dafür hübschere Lösungen gibt). Viele 404 Fehler oder eine schlecht gemachte Fehlerseite können allerdings dazu führen, dass User eine Seite verlassen und nicht mehr wiederkehren. Deshalb sollte man 404 Fehlerseiten dahingehend optimieren, dass sie dem User erlauben seine Suche zu korrigieren oder auf einen anderen Teil der Seite navigieren.

  • Meta-Refreshes

Ein Meta-Refresh leitet einen User nach einer kurzen Zeit auf eine andere Seite weiter. Das ist nicht nur nervig sondern auch verwirrend und führt häufig zu Bounces. Außerdem trägt das Ganze meist ein spammiges Verhalten mit sich. Deshalb: verzichte auf Meta-Refreshes.

  • Site speed

Site Speed oder Ladegeschwindigkeit ist ein offizieller Ranking-Faktor, auch da er so eine grundlegende Komponente der User Experience ist.  Die Seite kann den besten Content der Welt haben, aber wenn sie 10 Minuten zum Laden benötigt, wird jeder User bouncen. Ich könnte einen Artikel nur über Site Speed Optimization schreiben, aber vorerst ist es nur wichtig zu wissen, dass er wichtig ist und soweit wie möglich optimiert werden sollte.

  • Werbung

Ads werden zwar vorrangig vom „PLA“ / „Top Heavy Algorithmus“ gefiltert, spielen aber auch bei Panda eine Rolle. Ich möchte nicht empfehlen, auf Werbung und damit Einnahmen zu verzichten, allerdings darauf hinweisen dass es bei Übertreibung zu bösem Erwachen kommen kann. Zu viel Werbung im sichtbaren Bereich, ob Banner oder im Text, sorgt für komische Blicke vom Panda. Es ist einfach nervig für User. Habt ihr schon mal eine Seite besucht und wurdest von Popups und Layern erschlagen, die etwas verkaufen wollen? Es ist als ginge man durch ein Geschäft und würde konstant vom Personal belästigt: „Kauf“, „Warum kaufst du nicht?“, „Wann kaufst du endlich?“, „Nun kauf schon!“. Wie kann das eine gute User Experience sein?

  • Flash

Flash oder andere Formate, die nicht auf allen Geräten funktionieren, sollten vermieden werden. Sorry, Flash.

user-experience

Natürlich hat eine gute User Experience Auswirkungen auf User Signale. Im Endeffekt kann UX also bestimmen ob eine Seite vertrauenswürdig ist oder nicht – und das spielt in der heutigen Panda-Welt eine große Rolle.

4. Keine Vertrauenswürdigkeit

Wenn ihr möchtet, dass Besucher wiederkommen, muss die Seite vertrauenswürdig sein. In einigen Branchen, wie der Finanz- oder Versicherungsindustrie, ist dies wichtiger als in anderen. In jedem Fall führt Vertrauenswürdigkeit zur Verinnerlichung der Mark – bis hin zu einem Grad bei dem User auf ein Suchergebnis klicken, da sie die Marke in der URL oder im Title wiedererkennen.

Vertrauen beginnt früh in der User Journey und hat viele Berührungspunkte mit Usern:

  • Snippet
  • Erster Eindruck (Design & Layout)
  • Inhalt
  • Conversion

Schon in 2012 schrieb Danny Goodwin einen Artikel auf Search Engine Watch über die Google Quality Rater Guidelines und dass Seitenqualität zum Katalog hinzugefügt wurde. Dazu zählen auch Fragen wie „Würde ich dieser Seite meine Kreditkartendaten anvertrauen?“.

Es gibt einige Stellschrauben, an denen man drehen kann um die Vertrauenswürdigkeit einer Seite zu verbessern:

  • Anbieten von Kontaktinformationen und Adresse
  • Trusted Shop Symbole und Sicherheitssiegel zeigen
  • Datenschutzerklärung und ein Impressum bereitstellen
  • Bewertungen integrieren
  • Testimonials auflisten
  • Rechtschreib- und Grammatikfehler vermeiden
  • Verbindung per HTTPS anbieten
  • Kundenportfolio zeigen
  • Presseartikel und Awards aufführen
  • Eine „Über uns“ Seite inklusive Biographie / Firmenhistorie erstellen
  • Störende Werbung vermeiden

Wenn ihr Inspiration von Websites mit hohem Trust-Faktor sucht, schau Euch Top Player wie Amazon oder eBay an. Je mehr Vertrauenswürdigkeit für eine Seite geschaffen wird, desto höher die Conversions. Aber man kann es auch übertreiben.

5. Überoptimierung

„Zu viel“ optimieren kann definitiv in einer Google Penalty enden, meistens als „Manual Spam Penalty“ benannt. Aber auch der Panda schaut zu. In meiner Karriere bin ich auf zwei Arten von „Spam“ aufgrund von Überoptimierung gestoßen: Content und interne Verlinkung.

Überoptimierte Texte für Suchmaschinen sind einfach zu erkennen. Oft reicht es den Text gründlich durchzulesen, um das maschinenartige herauszufiltern, im Gegensatz zu „natürlichen“ Texten. Natürlich sollte man das Keyword, auf das man optimiert, im Text aufführen, aber die Zeiten von Keyword-Dichte sind längst vorbei. Keyword Stuffing ist ein no-go. Viel eher sollte man darauf achten, dass das Keyword (natürlich oft) im Text, in Überschriften, im Title, in der Description und in der URL vorkommt. Außerdem ist es mindestens genauso wichtig semantisch verwandte Themen abzudecken und ganzheitlich zu schreiben.

Bezüglich der internen Verlinkung besteht eine Überoptimierung meist aus zu vielen internen Links mit hartem Anchortext. Genauso wie für Backlinks, gibt es auch für interne Links Grenzwerte für ein natürliches Profil. Eine Überoptimierung der internen Verlinkung wäre beispielsweise überall auf jeder Unterseite den Linktext „günstiges iPhone 6 kaufen“ mit der Produktseite für ein iPhone 6 zu verlinken.

Um es zusammenzufassen: Wenn ihr gerne eine Panda Penalty hättest und ca. 50% des Traffics und damit Umsatzes verlieren möchtet, folgt den „Tipps“ die ich in diesem Artikel gebe. Andererseits führt das Befolgen von Panda-Anforderungen zu guten und langfristigen Rankings. Stellt sicher, dass die Faktoren Content, User Signale, User Experience, Vertrauenswürdigkeit und Optimierung auf eurem Radar und optimiert sind.

The post 5 sichere Wege eine Panda Penalty zu bekommen appeared first on .



via 5 sichere Wege eine Panda Penalty zu bekommen http://ift.tt/1r42SeT