patrickbreitenstein.com https://patrickbreitenstein.com/seo-lexikon/ Fri, 24 Apr 2026 04:26:49 +0000 de-DE hourly 1 Siloing https://patrickbreitenstein.com/seo-lexikon/siloing/ https://patrickbreitenstein.com/seo-lexikon/siloing/#comments Tue, 31 Aug 2021 20:57:53 +0000 S https://patrickbreitenstein.com/seo-lexikon/siloing/ Weiterlesen

]]>
Sioling ist eine Webseiten-Struktur, mit welcher man eine Webseite in sinnvolle Themebereiche gliedert.

Am besten lässt sich das Konzept mit einem Bild erklären:

Siloing fuer SEO


Im Prinzip handelt es sich dabei um mehrere Themen Cluster.



Siloing und SEO

Siloing ist keine Neuheit im SEO, doch es wird immer wichtiger. Denn die Topic Clustering ist ein Trend, welcher nicht mehr aufzuhalten ist.

Google und Co driften nämlich von dem reinen Keyword zum Topic und das Siloing ist die perfekte Struktur der Webseite für eine saubere Trennung von mehreren Themen Clustern.

Der SEO Experte Bruce Lay behauptet sogar, dass Siloing eine der besten Geheimwaffen, um große Konkurrenten zu überholen auf Google.

Hier zu seinem kompletten Beitrag dazu.


URL-Struktur

Ein sauberes Siloing wird auch mit einer URL-Struktur verbunden.

www.domain.de/thema/unterthema/

Das hilft den Suchmaschinen die Struktur einfacher zu verstehen und zuzuordnen, gleichzeitig ist es auch für die Nutzer sehr übersichtlich und angenehm.

Oftmals kommen dabei auch die sogenannten Breadcrumbs ins Spiel, welche vor allem für die Nutzer die Navigation nochmals vereinfachen.

So sehen Breadcrumbs aus;

BreadCrumbs erklaert


Man kann damit ganz einfach zur oberen Kategorie zurückspringen und somit schneller navigieren.


Interne Verlinkungen in den Silos

Die Silos sollten so relevant in sich sein, dass eine regelmäßige Verlinkung der einzelnen Beiträge stattfindet. Das stärkt das Silo als Ganzes und verleiht diesem auch mehr Autorität. Natürlich ist damit nicht gemeint sinnfrei zu verlinken, sondern immer nur dann, wenn es wirklich hilfreich für den Leser ist.

Man sollte grundsätzlich Verlinkungen zu anderen Silos minimieren, damit die Themenrelevanz innerhalb des Silos hoch bleibt.

Wenn Themen zu vernetzt sind, dann lohnt es sich ein großes Silo zu erstellen, wodurch man diese Regel umgehen kann.

Eine weitere Möglichkeit, um die Themenrelevanz hochzuhalten ist der No-Follow-Link zwischen den Silos, damit Google den Link ignoriert und Leser trotzdem zum nächsten Silo springen können, falls es Sinn ergibt.

Das ganze Konzept der Silos basiert auf der Themenrelevanz, weshalb man diese auch besonders beachten sollte.


Mit Silos auf Google ranken

Um auf Google zu ranken, muss man sich immer die Konkurrenz genau ansehen und analysieren, wie hoch deren Themenrelevanz ist.

Man sollte sich also als Erstes ansehen, wie viel Inhalte man braucht, um an die Themenrelevanz der Konkurrenz zu kommen.

Bruce Clay sagt dazu folgendes:

While the content alone is not enough to rank well in the search engines, having “enough” is essential to rise to the top of the search results.

Man kann das selbst herausfinden, indem man die Google Operatoren passend verwendet.

Ein Beispiel zur erfolgreichen Siloplanung, um auf Google zu ranken, gibt es jetzt:

Angenommen, wir möchten erfahren, wie hoch die Anzahl der Inhalte ist, um für den Themenbereich "Inbound Marketing" zu ranken.

Dafür würden wir uns als Erstes die Top 5 von dem Keyword "Inbound Marketing" ansehen.

Stand April 2021 sehen die so aus:

  1. Hubspot
  2. Chimpify
  3. Mark Lotse
  4. Take Off PR
  5. Online Marketing Praxis


Nun nehmen wir diese Domains und untersuchen, wie oft diese Artikel oder Seiten zum Thema Inbound Marketing veröffentlicht haben.

Dazu tippen wir folgendes in Google ein für Hubspot:

site:hubspot.de Inbound Marketing

Das Gleiche machen wir mit den anderen Domains auch.

Hubspot hat zum Beispiel erschreckende 9.000 einzelne Ergebnisse mit der Nennung "Inbound Marketing". Das ist aber auch kein Wunder, da diese als Vorreiter in diesem Thema gelten.

So sehen die Analyseergebnisse aus:

  1. Hubspot hat über 9000 Ergebnisse
  2. Chimpify hat knapp 460 Ergebnisse
  3. Mark Lotse hat knapp 300 Ergebnisse
  4. Take Off PR auch etwas über 300 Ergebnisse
  5. Online Marketing Praxis nur 30 Ergebnisse

Bei diesen Ergebnissen werden aber auch Seiten gezählt, welche nur eine Nennung im Fließtext haben. Interessanter ist es für unsere erfolgreiche Siloplanung nur Seiten zu filtern, welche unser Keyword auch wirklich im Titel haben.

Das geht, wann man noch einen anderen Operator von Google hinzunimmt.

site:chimpify.de intitle: Inbound Marketing

Damit bekommt man nämlich nur Resultate, welche das Keyword auch wirklich im Titel haben.

  1. Hubspot hat über 270 Ergebnisse
  2. Chimpify hat knapp 35 Ergebnisse
  3. Mark Lotse hat knapp 60 Ergebnisse
  4. Take Off PR auch etwas über 100 Ergebnisse
  5. Online Marketing Praxis nur 2 Ergebnisse


Alleine anhand dieser Analyse sieht man schon, dass es unheimlich schwer wird auf Platz 1 zu kommen, aber eine Platzierung 2-5 durchaus möglich ist, denn die thematische Relevanz des Platz 5 kann mit einem gut gefüllten Silo zum Thema "Inbound Marketing" recht einfach überholt werden.

Das ist eine sehr effektive Vorgehensweise, um das Silo erfolgreich auf Google zu ranken.

Wenn man von der Anzahl dort überwältigt ist, sollte man überlegen eine kleinere Nische für das Silo zu suchen und erst später größere Themen und Keywords anzugehen.


]]>
https://patrickbreitenstein.com/seo-lexikon/siloing/feed/ 3 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Suchmaschine https://patrickbreitenstein.com/seo-lexikon/suchmaschine/ https://patrickbreitenstein.com/seo-lexikon/suchmaschine/#comments Mon, 12 Apr 2021 17:57:00 +0000 S https://patrickbreitenstein.com/seo-lexikon/suchmaschine/ Weiterlesen

]]>
Eine Suchmaschine ist eine Software, welche das Internet durchsucht, um dem Suchenden das bestmögliche Ergebnis zu einer Suchanfrage zu liefern.

Die größten Suchmaschinen der Welt sind:

  1. Google
  2. Bing
  3. Yahoo


Wobei Google im Jahr 2021 ganze 85,56% der Suchanfragen bekommt (gemessen an PageViews). 

Das Internet wäre absolut undenkbar ohne die Suchmaschinen und ein reines Chaos. Die Suchmaschinen tragen Tag für Tag dazu bei, das Wissen der Menschheit zu strukturieren und verfügbar zu machen.



Crawler & Crawling

Ein Crawler im SEO-Bereich ist Software, welche das Internet (WWW) systematisch scannt und durchsucht komplett automatisch. Daraus erstellt dieser Crawler eine Liste an Informationen, was man auch einen Index nennt.

Der bekannteste Crawler des Internets ist der sogenannte Googlebot. Das ist der Crawler von Google, welcher rund um die Uhr aktiv durch das Internet geht, um neue Webadressen (URLs) zu finden und aufzulisten.

Ein Crawler hat unterschiedliche Arten, um an neue Webseiten zu kommen. Klassischerweise geht es über eine Kette von Verlinkungen oder auch einfach über die Sitemap einer Webseite.


Sitemap = Auflistung einer Domain aller Unterseiten.

So sieht zum Beispiel die Sitemap dieser Webseite aus:

Sitemap Beispiel


Recht unspektakulär, jedoch eine wichtige Quelle für den Googlebot.

Diese Sitemap sollte entweder automatisch von deinem CMS erstellt werden oder du musst dir einen Plugin wie YoastSEO (WordPress) dafür holen.

Überprüfe jetzt, ob deine Webseite eine Sitemap hat, indem du Folgendes eingibst:

https://www.deinedomain.de/sitemap

Wenn du dort nichts findest, dann solltest du dir diesen Leitfaden ansehen.


Diese Sitemap (also die URL davon) sollte man auch bei der Google Search Console hinterlegen, damit der Crawler auch ganz sicher alle deine Webseiten indexiert und kategorisiert, weil sonst riskiert man, dass einige Seiten nie von Google gefunden werden.

Sitemap hinterlegen bei GSC


Wie kann man einen Crawler stoppen?

Wenn man nicht möchte, dass ein Crawler eine bestimme Seite aufnimmt in den Index, dann verleiht man dieser Seite die Bezeichnung noindex, wodurch der Crawler einfach über diese Seite springt. In den meisten CMS ist das ganz einfach mit zwei Klicks erledigt.

So sieht das zum Beispiel bei Chimpify aus:

NoIndex bei Chimpify

Manuell kannst du das aber auch machen, indem du in deinen HTML-Code gehst und in den "<head>" folgendes einfügst:

"<meta name="robots" content="noindex">"

Damit werden alle herkömmlichen Suchmaschinen diese Seite ignorieren.

Verwirrung mit der Robots.txt

Eine große Verwirrung herrscht dabei im Zusammenhang mit der robots.txt.

Die Robots.txt ist die Datei, welche man selbst erstellen kann und welche Suchmaschinen Befehle und vor allem Vorbote gibt.

Damit ein noindex wirkungsvoll verwiesen wird, darf die Seite NICHT in der Robots.txt für Suchmaschinen blockiert werden, denn dann kann der Crawler das noindex nicht lesen und die Seite bleibt weiterhin in den Suchergebnissen.

Hier die Aussage von Google selbst dazu.


Das Gleiche gilt für einen Link. Wenn der Crawler einem gewissen Link nicht folgen soll, dann verleiht man diesem Link das NoFollow Attribut, welches in HTML dann so aussieht:

No Follow Link in HTML


Wann sollte man NoIndex verwenden?

Es kann verschiedene Gründe geben, warum du nicht möchtest, dass eine Seite indexiert wird.

Es kann sich um eine Seite handeln, welche noch nicht fertig ist oder auch eine Seite, welche nur für interne Zwecke existiert und nicht für die Öffentlichkeit. In jedem Fall solltest du das im Hinterkopf behalten und Google nur die Seiten präsentieren, welche auch wirklich für die Öffentlichkeit gedacht sind.


Indexierung

Indexierung ist der Prozess von den Suchmaschinen, wenn eine Webseite mit in die Datenbank aufgenommen wird. Google und Co durchsuchen nicht jedes Mal das komplette Internet, wenn man eine Suchanfrage gestellt wird, sondern nur eine interne Datenbank an Listen zu dem jeweiligen Thema und präsentiert dann eine Reihenfolge, welche Google als sinnvoll erachtet in den sogenannten SERPs.

Ganz simpel erklärt:

Der Crawler durchsucht das Internet und speichert die Ergebnisse im Index der Suchmaschine. Der Algorithmus verweist diesen Ergebnissen dann eine Hierarchie, welche wir als Ranking bei Google kennen. Diese Hierarchie variiert je nach Suchanfrage.


Früher wurde also in Intervallen dieser Index befüllt mit dem Crawler. Das ist seit dem Caffeine-Index anders, welcher nun in Echt-Zeit Veränderungen aufnimmt.

Warum ist das wichtig für SEO?

Es ist wichtig, dass deine Webseite überhaupt in den Index von Google und Co aufgenommen wird, denn sonst kann der Algorithmus deine Webseite nicht ranken!

Das geht bei Google ganz einfach über die Google Search Console, indem du deinen neuen Artikel oder neue Webseite als URL in die obere Leiste eintippst.

Google Search Console Indexierung

Dann siehst du direkt, ob diese URL bereits im Index vorhanden ist oder nicht und kannst die Indexierung dann auch mit einem Klick beantragen.

Das kann dann unter Umständen 1-2 Tage dauern, da selbst Google begrenzte Ressourcen hat und nicht an jedem Ort gleichzeitig crawlen kann.

Algorithmus

Der letzte und vielleicht wichtigste Bestandteil einer Suchmaschine ist der Ranking Algorithmus.

Nachdem die Webseite gecrawlt und indexiert wurde, liegt diese bereit präsentiert zu werden für Suchende.

Der interne Algorithmus entscheidet dann basierend auf den Daten des Crawlers, welche Webseite den begehrten Platz 1 verdient bei einer Suchanfrage.

Beim SEO (Hier geht es zu SEO Weiterbildungen) gilt es im Prinzip diesen Algorithmus zu verstehen, damit man diesem bzw. dem Suchenden ein bestmögliches Ergebnis liefert, welches dann auch oben rankt, Besucher bekommt und damit auch Kundschaft.

Dieser Algorithmus wird ständig upgedatet. Die wichtigsten Updates sind dann sogenannte Core Updates, bei welchen der Kern des Algorithmus verändert wird und somit sich Rankingveränderungen ergeben.

Der Algorithmus ist eine Maschine bzw. eine Software und arbeitet somit komplett autonom. Das ist auch der Grund, warum einige Themen bei SEO recht techniklastig sind. Denn, wenn dieser Algorithmus die Informationen auf einer Webseite nicht richtig zuordnen kann, dann kann dieser die Webseite auch nicht korrekt ranken.

Glücklicherweise wird diese Software immer schlauer und seit dem RankBrain Update ist es sogar eine selbstlernende KI, welche von Suchanfrage zu Suchanfrage selbst dazu lernt.


Das vereinfacht SEO, denn es wird weniger techniklastig und es geht einfach immer mehr in die Richtung, dass schlicht und einfach der beste Inhalt rankt!


Hier geht es zum kompletten Guide, wie du deinen Blog starten kannst.



Quelle:

Statista Suchmaschine

Indexierung

]]>
https://patrickbreitenstein.com/seo-lexikon/suchmaschine/feed/ 10 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Core Updates von Google https://patrickbreitenstein.com/seo-lexikon/google-core-updates/ https://patrickbreitenstein.com/seo-lexikon/google-core-updates/#comments Sun, 11 Apr 2021 03:00:00 +0000 C https://patrickbreitenstein.com/seo-lexikon/google-core-updates/ Weiterlesen

]]>
Google updatet regelmäßig seinen Algorithmus, welcher Suchergebnisse auf den SERPs präsentiert für den Suchenden.

Wenn man von einem Core Update spricht, dann ist dies ein besonders wichtiges Update von Google, welches den Kern der Software etwas verändert und damit recht große Auswirkungen haben kann.



Übersicht

Panda (2011)

Panda Update von Google

Das Panda Update ist eine absolute Legende im SEO-Bereich, denn dieses Update hat für heftige Veränderung bei Google gesorgt.

Das Ziel war es schlechten Content abzustrafen und weiter nach hinten zu ranken.

Relevante Inhalte sollten somit von irrelevanten Inhalten getrennt werden und die Grundlage davon waren die wie so oft die Nutzererfahrung und Nutzerdaten. Laut der SEO-Küche zeigten bis zu 12 Prozent der Suchanfragen Veränderungen nach dem Panda-Update, was es so signifikant gemacht hat. 2014 wurde dieses Update nochmals grundlegend verbessert beim sogenannten Panda 4.0 Update.


Penguin (2012)

Penguin Update von Google

Das Ziel des Penguin Updates war es hauptsächlich Spam in den Suchergebnissen ausfindig zu machen. Es gibt nämlich immer wieder sogenannte "Black-Hat-Methoden", um bei den Google SERPs weit oben zu landen, ohne dass man wirklich die beste Antwort für den Nutzer bietet.

Black Hat = Verbotene Methoden

White Hat = Erlaubte Methoden

Ganz konkret wurde mit dem Penguin Update versucht das Kaufen von Links und den unnatürlichen Linkaufbau zu unterbinden und bestrafen.

Wenn man von diesem Update betroffen war, dann konnte es zu massiven Rankingverlusten aufgrund von Bestrafungen (sogenannten Penalties) führen und es konnte sogar vorkommen, dass einige Webseiten komplett aus der Indexierung verschwunden sind.

Praktiken wie Keyword-Stuffing wurden auch abgestraft.

EMD (2012)

EMD Update bei Google

Das EMD Update bedeutet ausgeschrieben: Exact Match Domain

Das Ziel dahinter war es Domains, welche nur einen exakt gleiche Domain für ein Keyword haben, aber sonst schlechten Inhalt liefern zu vernachlässigen.

Denn es war eine Praktik aus dem SEO für ein Keyword einfach zu ranken, indem man einfach eine Domain mit genau diesem Keyword kauft. Den Inhalt, welchen man dann liefern musste, war geringer als, wenn die Domain nicht genau gestimmt hat.

Hummingbird (2013)

Hummingbird Update von Google

Das Hummingbird Update von Google im Jahr 2013 zielte auf die genaue Bedeutung von Worten ab. Seit dem kann Google nämlich Worte verstehen, statt nur ein Match zu suchen.

Google ist sogar fähig komplexere Zusammenhänge mit einem Kontext zuzuordnen.

Das klassische Keyword ist damit unwichtiger geworden, denn Google kennt seitdem auch LSI Wörter und versteht viel mehr den sogenannten Search Intent (= Grund, warum jemand etwas googelt.)

Pigeon (2014)

Pigeon Update von Google

Das Pigeon Update ist voll auf die lokale Suche fokussiert gewesen. Google hat mit diesem Update sein Verständnis von lokalen Suchanfragen enorm verbessert und liefert seither bessere Suchergebnisse bei Anfragen wie: Bäcker in Berlin oder auch Autowerkstatt

Mobile-first update (2015)

Mobile Update von Google

Es war lange klar, dass der Trend in Richtung Mobile-First-Mentalität geht. Also weg vom Desktop Design einer Webseite und hin zum Mobile-friendly Design.

Google hat sich mit dem Mobil-First Update diesem Trend lediglich angepasst und legt seither sehr viel Wert auf das Nutzererlebnis bei einem Smartphone. 

Im März 2021 gab es dazu dann nochmal eine Umstellung mit dem Mobile First Index.

RankBrain (2015)

RankBrain Update von Google

Das Google RankBrain ist die interne KI (= künstliche Intelligenz) von Google, welche Suchanfragen und den Grund für diese nochmals um einiges besser versteht und auch ständig dazu lernt.

Der Algorithmus lernt also von alleine und passt die Suchergebnisse an.

Faktisch ist es sogar so, dass RankBrain die komplette Bewertung von den Rankingfaktoren übernimmt und je nach Suchanfrage Backlinks, Länge des Inhalts, DA oder auch Neuheit der Inhalte unterschiedlich bewertet.

Ein Albtraum für alle SEO-Experten, denn seit RankBrain ist es unmöglich eine allgemeine Aussage zu tätigen, welcher der wichtigste Rankingfaktor ist.

Wieder einmal werden die Nutzersignale dafür verwendet, um die Zufriedenheit der Suchenden zu messen.

Zusätzlich dazu ist RankBrain in der Lage Suchanfragen in komplexe Themen Cluster und Konzepte einzuordnen. RankBrain weiß also genau, was du meinst, wenn du googelst.

Wenn du mehr darüber erfahren möchtest, dann lies dir Artikel zu NLP (natural language processing) durch. Ein wirklich spannendes Thema!

Fred (2017)

Fred Update von Google

Wieder einmal handelt es sich hierbei um ein Update, welches die Qualität einer Webseite besser messen soll.

Dieses Update war ein Phantom Update, was bedeutet, dass es Auswirkungen auf die Rankings gab (sogar heftiger als bei Panda), ohne das Google ein Core Update bestätigt hat.

Es ist also eines von vielen Qualitätsupdates, welche als Fred bei Google bezeichnet werden.

Bestrafungen gab es bei diesem Update für Webseiten, welche die Webmaster Richtlinien nicht beachtet haben.


E-A-T (2018)

E A T Update

E-A-T steht für: Expertise, Autorität & Trust (Vertrauen)

Mit dem EAT Update gab es auch heftige Rankingveränderungen und viele Fragezeichen.

Ein Zitat von Evergreen Media dazu:

Mit E-A-T will Google dafür sorgen, dass Seiten mit hoher Qualität besser ranken und dadurch das Vertrauen in die Google-Suche (weiter) steigt.

Zusätzlich sorgt das EAT Update dafür, dass weniger Falschmeldungen verbreitet werden. Im Prinzip versteht Google seit diesem Update das Konzept einer Marke besser und kann somit besser einteilen, welcher Quelle getraut werden kann und welcher nicht.

Zur ausführlichen und wirklich sehr hilfreichen Erklärung von E-A-T geht es hier: E-A-T erklärt


BERT (2019)

BERT Update von Google

Das BERT Update geht noch tiefer in die Materie des NLP (= natural language processing).

Das Konzept dahinter ist, dass Google Kontexte versteht und auch die Bedeutung anderer Worte umwandeln kann je nach Kontext eben.

Für BERT konkret kann man nicht optimieren, sondern man muss einfach dafür sorgen, dass sein Inhalt der Beste ist zu diesem Thema.


Mobile First Index (2021)

Mobile Index Update

Der Google Bot crawlt (analysiert) seit dem Mobile First Index im März 2021 Webseiten nur noch mit dem mobilen Endgerät.

Drastisch, aber wahr!

Die Desktop-Webseite wird also gar nicht mehr von google gecrawlt und das bedeutet eine sehr große Umstellung für alle Webdesigner, welche gerne den mobilen Bildschirm ignoriert haben und nur am Desktop waren.

Wer also auf dem Mobile nicht nutzerfreundlich ist, ist raus!


Zusammenfassung Altes SEO vs neues SEO 

Viele sind ganz ängstlich vor den Core Updates bei Google und manche scheuen sich sogar vor dem kompletten Thema SEO, da sie Angst haben, dass mit einem Core Update alles weg sein könnte.

Das ist Unsinn. Die Core Updates von Google dienen alle nur einem einzigen Sinn. Das Internet und die Suchergebnisse auf ein höheres Level zu befördern. Wenn du immer wieder versuchst deine Webseite und deine Inhalte auf dem besten Qualitätsstandard zu halten, dann wird dich Google lieben, egal was für ein Update auch kommen mag.

Du musst schlicht und einfach das beste Resultat auf Google werden, wenn du auf Google Platz 1 ranken möchtest. Die Core Updates von Google verhelfen der Suchmaschine dann nur dabei dich zu finden.

Wie wird man das beste Suchergebnis?

DAS ist die eigentliche Frage, welche du dir stellen solltest.

Hier die wichtigsten Kriterien zum Mitnehmen. Du solltest das alles besser als deine Konkurrenz sein:

  • Besser und ausführlicher recherchiert
  • Besser designt (Desktop & Mobile)
  • Tiefergehend und umfassender berichtet
  • Höhere Themenrelevanz und Expertise
  • Schnellere Webseite
  • Besser strukturierte Daten
  • Besseres Einbinden der Leser
  • Höhere Lesefreundlichkeit
  • Höhere durchschnittliche Lesedauer
  • Starke & vertrauenswürdige Marke
  • Absoluter Spezialist statt Generalist 
  • Zitierfähiger Text
  • Fehlerfrei


Ein absolutes Meisterwerk also. Das ist genau, was Google will und damit wirst du alle Updates überleben.




Quellen:

SEO Küche Penguin
SearchMetrics Penguin

SEO Küche Panda

Hello Performance Mobile First
Ryte Fred Update

]]>
https://patrickbreitenstein.com/seo-lexikon/google-core-updates/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Server https://patrickbreitenstein.com/seo-lexikon/server/ https://patrickbreitenstein.com/seo-lexikon/server/#comments Sat, 03 Apr 2021 00:43:00 +0000 S https://patrickbreitenstein.com/seo-lexikon/server/ Weiterlesen

]]>
Ein Web-Server oder einfach Server ist der Ort (ein Computer), an welchem eine Webseite gespeichert ist. Dieser Server ermöglicht auch den Zugriff auf die gespeicherte Webseite über das Internet.

Ähnlicher Begriffe: Webhosting, Hostingservice, Serverprovider.


Eine Webseite erklärt

Im Prinzip ist es ganz einfach:

Man schreibt Inhalte, welche man in einem öffentlich zugänglichen Ordner auf einem Server ablegt, welche dann über eine feste Internetadresse von anderen Computern abgerufen werden können.

Diese Inhalte werden nur nicht mit Word geschrieben, sondern mit HTML, CSS und JavaScript.

Das Prinzip ist trotzdem gleich.

Der Server ist also der Speicherort, welche den Abruf dieser Daten ermöglicht.

Tatsächlich sieht die Struktur dann auch aus wie ganz normale Ordner:

Ordner eines Servers


Downtime

Das wichtigste eines Servers ist:

Er muss immer zugänglich und am Netz sein.

Wenn er das nicht ist, dann nennt man das "Downtime" und diese sollte logischerweise so niedrig wie möglich sein.

Diese Server-Downtime kann variieren von Anbieter zu Anbieter, weshalb man sich darüber informieren sollte, bevor man sich für einen Server entscheidet.

In unserem Vergleich der Server haben wir diesen Wert deshalb extra mit betrachtet.


Server-Response-Time (SRT)

Die Server-Response-Time kurz SRT ist die Zeit, welche ein Server braucht, um zu reagieren, wenn ein Befehl kommt wie zum Beispiel ein einfacher Klick auf die Webseite.

Wenn man zum Beispiel auf eine Webseite klickt und lange nichts passiert, dann kann es gut sein, dass die Server-Response-Time schlecht ist.

Server Response Time erklaert

Dieser Wert ist sehr wichtig bei der Webseitengeschwindigkeit und deshalb auch wichtig für SEO, denn Google rankt langsame Seite nicht weit oben.

Diese Kennzahl sollte man sich also auch ansehen, wenn man eine Entscheidung trifft, auf welchem Server die Webseite sein soll.

Ein deutscher Server bietet sich in diesem Zusammenhang übrigens an, wenn man vorhat für Deutsche Leser zu schreiben. Ist aber keine Pflicht, da es auch CDNs gibt.

Zum Anbietervergleich geht es hier.


CDN - Content Delievery Network

Ein Content Delievery Network heißt auf Deutsch Inhaltslieferungsnetzwerk und ist ganz einfach eine Reihe an Servern, welche über den Globus verteilt sind, welche deine Webseite abspeichern, damit die Webseite auf der ganzen Welt schnell erreichbar ist und die SRT niedrig bleibt.

Für Blogger bzw. Webseiten, welche eine internationale Leserschaft haben, ist das absolute Pflicht, aber auch sonst lohnt häufig.

Der bekannteste Anbieter eines CDNs ist Cloudflare.

Lohnt es sich einen eigenen Server zu führen?

Im Prinzip kann jeder mit seinem Heimcomputer einen Server starten und darüber seine eigene Webseite hosten. Das ist jedoch nur zu empfehlen, wenn man fortgeschrittene Kenntnisse in Programmierung hat.

In der Regel lohnt sich das aber auch dann nicht. Es gibt mittlerweile so günstige Server, welche 24/7 laufen, kaum Downtime haben, von Experten gewartet werden und an einer super schnellen High-Speed-Internet-Verbindung angeschlossen sind, dass da der eigene Homeserver meistens nicht mitkommt.



]]>
https://patrickbreitenstein.com/seo-lexikon/server/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Trust & Citation Flow https://patrickbreitenstein.com/seo-lexikon/trust-citation-flow/ https://patrickbreitenstein.com/seo-lexikon/trust-citation-flow/#comments Sat, 03 Apr 2021 00:01:00 +0000 T https://patrickbreitenstein.com/seo-lexikon/trust-citation-flow/ Weiterlesen

]]>
Der Trust & Citation Flow sind gemeinsam ein Wert, welche die Vertrauenswürdigkeit einer Webseite beschreiben.

Beide Werte gehen von 0 bis 100, während null "nicht vertrauenswürdig" bedeutet und 100 "sehr vertrauenswürdig".

Trust und Citation Flow Majestic

Diese Werte stammen von der SEO Firma Majestic, welche Experten im Thema Backlinks sind und diese Werte bereits seit 2012 bereitstellen. 

Beide Werte zusammen ergeben die sogenannten Majestic Flow Metrics.


Das Linkprofil von Majestic ist eines der detailliertesten, welches man im SEO-Bereich bekommen kann.

Doch dieses gibt es nicht kostenlos für Majestic zahlt man momentan (April 2021) £39,99, was über 40€/Monat sind.

Ein vergleichbarer Wert ist die Domain Autorität, welche auch auf Backlinks beruht.




Zusammenhang mit SEO 

Der Zusammenhang mit SEO ist wie bei der Domain und Page Autorität.

Grundsätzlich rankt eine Webseite um einiges leichter mit einem hohen Trust und Citation Flow als eine Webseite mit niedrigen Werten.

Das liegt daran, dass die Suchmaschinen Backlinks und Linkprofile verwenden, um einzuschätzen, welche Webseite vertrauenwürdig ist und welche nicht.

Google und Co möchten nämlich nur absolut seriöse und professionelle Ergebnisse den Suchenden in den SERPs präsentieren.

(So baut man Backlinks auf mit Backlinked.de)


Aufbau der Metrics 

Der Aufbau dieser Metrics ist relativ aufwändig, weshalb Webseiten mit hohen Werten auch um einiges mehr wert sind als Webseiten mit niedrigen Werten.

Im Prinzip geht es nur über den Linkaufbau, sei es manuell oder organisch.

Umso mehr qualitative Links (Links mit viel Juice) man aufbaut, umso höher steigen diese Werte.

Das ist auch der Grund, warum Giganten wie amazon oder wikipedia einen sehr hohen Trust Flow und Citation Flow haben.



]]>
https://patrickbreitenstein.com/seo-lexikon/trust-citation-flow/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
CSS https://patrickbreitenstein.com/seo-lexikon/css-1/ https://patrickbreitenstein.com/seo-lexikon/css-1/#comments Fri, 02 Apr 2021 23:04:00 +0000 C https://patrickbreitenstein.com/seo-lexikon/css-1/ Weiterlesen

]]>
CSS ist die Programmiersprache, mit welcher man das Design einer Webseite gestalten kann.

CSS funktioniert nur im Zusammenhang mit HTML.

Denn man bestimmt das Design der Bausteine aus HTML.




Zusammenhang von CSS und HTML 

Die Sektionen in HTML können alle einzeln oder auch gruppiert mit CSS gestylt werden.

Einzeln stylen 

Man kann in-line direkt CSS-Code eingeben beim HTML-Code. Das macht man mit dem Tribut style="...". Innerhalb der Anführungszeichen "" kann man dann seinen CSS-Code einfügen.

Hier ein Beispiel ohne CSS:

"<div><p>Das ist ein Beispielparagraph.</p></div>"

Hier ein Beispiel mit CSS:

"<div style="width: 300px"><p style="font-size:15pt">Das ist ein Beispielparagraph.</p></div>"

Damit bestimmt man eine feste Breite von 300 Pixeln der Sektion (div) und eine Schriftgröße von 15pt des Paragraphs.


Gruppiert stylen

Man kann aber auch ganze Gruppen von Elementen stylen, ohne bei jedem Attribut immer die gleichen Linien von Code einzufügen.

Das geht dann über sogenannten Klassen oder ids.

Hier dasselbe Beispiel von oben:

"<div><p>Das ist ein Beispielparagraph.</p></div>"

Doch dieses Mal geben wir dem paragraph eine Klasse, welche wir dann wiederholt einfügen können.

"<div class="Giraffe"><p>Das ist ein Beispielparagraph.</p></div>"

Man hat jetzt zwar mehrere Möglichkeiten, aber meistens ergibt es jetzt am meisten Sinn in das generelle StyleSheet bzw. CSS-File der Webseite zu gehen, damit man diese Klasse überall abrufen kann.


Bei Chimpify findet man das hier:

CSS Datei finden 1

In dieser CSS Datei spricht man dann seine Giraffen Klasse mit einem Punkt an.


".Griaffe { width=300px; font-size=15pt; color: red; background-color: black}"


Damit erzeugt man auch die 300 Pixel Breite und Schriftgröße von 15pt. Zusätzlich dazu gibt es noch die Textfarbe Rot und die Hintergrundfarbe Schwarz.


Man kann auch eine ID ansprechen mit dem Hashtag #.


Hier ein kurzes Beispiel dazu:

HTML = "<div id="Giraffe"><p>Das ist ein Beispielparagraph.</p></div>"

CSS = "#Griaffe {width=300px; font-size=15pt; color: red; background-color: black}"


Das Coole daran ist, dass man ab jetzt nur noch die class einfügen muss und egal wo auf der Webseite, dieses div wird immer die gleichen Eigenschaften haben, das spart enorm viel Zeit.

Beachte die Groß- und Kleinschreibung dabei immer und setze auch ein Semikolon; nach einem Befehl.

Zusammenhang von CSS & SEO

Der Zusammenhang von CSS und SEO ist relativ einfach. Man muss seine Webseite so gestalten, dass man die maximale UX (User Experience = Nutzererlebnis) produziert.

Denn ein wichtiger Rankingfaktor von Google ist das Nutzererlebnis auf deiner Webseite. Das ist konstant immer wichtiger geworden von Google Update zu Update.

Vor allem seit die Core Web Vitals in den Vordergrund gerückt sind, ist das Thema CSS wichtiger denn je, denn deine Webseite muss gut auf den Leser abgestimmt sein.


Wichtigsten Bausteine von CSS

Behandeln wir nun die häufigsten CSS-Bausteine und deren Bedeutung:

  • width & height = Breite & Höhe eines Elements ( Hier mehr dazu)
  • text = Attribute eines Texts (Hier mehr dazu)
  • background = Der Hintergrund eines Elements (Hier mehr dazu)
  • border = Der Rand eines Elements (Hier mehr dazu)
  • margin = Abstände außen - top, bottom, left oder right (Hier mehr dazu)
  • padding = Abstände innen - top, bottom, left oder right (Hier mehr dazu)
  • color = Farbe eines Elements (Hier mehr dazu)
  • font = Die Schrift eines Texts (Hier mehr dazu)
  • position = Die Position eines Elements (Hier mehr dazu)

Wenn du mehr zum Thema CSS lernen möchte, dann empfehle ich dir den CSS Course von GoSkills.

Dort erfährst du alles, was du wissen musst, um durchzustarten.


]]>
https://patrickbreitenstein.com/seo-lexikon/css-1/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
HTML & JavaScript https://patrickbreitenstein.com/seo-lexikon/html/ https://patrickbreitenstein.com/seo-lexikon/html/#comments Fri, 02 Apr 2021 00:47:00 +0000 H https://patrickbreitenstein.com/seo-lexikon/html/ Weiterlesen

]]>
HTML ist die Programmiersprache, mit welcher Webseiten geschrieben werden.

Meistens ist es jedoch untypisch eine Webseite selbst von null mit HTML selbst zu bauen, denn dafür gibt es heutzutage Webseiten-Builder wie Chimpify, welche einem diese Arbeit abnehmen, damit man sich mehr auf die kreative Komponente fokussieren kann.




HTML & SEO: Wie ist der Zusammenhang?

HTML und SEO der Zusammenhang

Oftmals kommt die Frage auf, wie HTML und SEO miteinander hängt.

Im Prinzip ist es aus einer SEO-Perspektive nur wichtig, dass die Inhalte gut gelesen werden können und der HTML-Code simple und korrekt ist.


Es gibt immer wieder hitzige Diskussionen, wie der HTML-Code strukturiert sein muss und ob Builder wie Elementor SEO schwerer machen.

Es geht aber hauptsächlich um das Nutzererlebnis behauptet Google selbst. Wie der Code hinter der Webseite aussieht, ist deshalb zweitrangig oder sogar irrelevant.


Google misst Nutzerdaten wie Lesedauer, Bounce Rate (umstritten aber wahrscheinlich) oder auch soziale Teilungen.


Zusammenfassend: Ja, der HTML muss sauber sein und eine Webseite voller Programmierfehler wird nicht gut bei Google ranken, aber das Erlebnis dieses Codes also UX (Nutzererlebnis) ist vorrangig.


HTML Basics

<HTML>

Jedes HTML-Skript fängt gleich an mit dem "<!DOCTYPE html><html>" ganz oben und ganz unten das "</html>".

Dazwischen findet die ganze Magie statt.

Das DOCTYPE erklärt die Art des Dokuments und zwischen den beiden htmls darf dann HTML-Code angewandt werden.

Danach kommt immer zuerst der sogenannte Head, welcher wie folgt aussieht:

"<head> INHALT des Heads </head>"

Innerhalb dieses Heads gibt es verschiedene Sachen, welche eingefügt werden:

  • Der Titel (PFLICHT) "<title> TITEL DER WEBSEITE </title>"
  • Meta Beschreibung "<meta> BESCHREIBUNG FÜR GOOGLE max. 160 Zeichen </meta>"
  • Javascript "<script> Etwas komplexere Programmierungen </script>"
  • Das CSS-File verlinken "<link rel="stylesheet" type="text/css" href="styles.css">"

Die Großbuchstaben sind übrigens nicht notwendig!

Die Meta-Beschreibung und der Titel sollten beide dein Keyword enthalten, damit Google dich besser einordnen kann.


<Body>

Erst im Body geht es dann richtig los und man beginnt mit dem tatsächlichen Webseiteninhalt.

Der Titel und die Beschreibung vom Head sind gar nicht sichtbar für die Leser der Webseite, sondern rein für die Suchmaschinen.

In der Regel eröffnet man den Body mit der H1-Überschrift.

Das sieht dann so aus: "<h1>Deine tolle Überschrift der Webseite</h1>"

Diese Überschrift sollte in jedem Fall dein exaktes Keyword enthalten.

Danach kommt vermutlich eine Einleitung von dir, bis es dann mit dem echten Inhalt losgeht, bei welchem du aber nur noch die "<h2>Überschrift</h2>" verwendest, denn die H1-Überschrift darf es nur einmal pro Seite geben.


<div> Sektion

Das Div-Element ist eine Sektion. Eine Art sinnvolle Unterteilung deines Inhalts. Du kannst ein Div auch verwenden, um den Hintergrund eines Elements zu ändern. Das mache ich übrigens hier auch:


Das ist ein Div-Element, welches ich mit CSS gestylt habe, um einen schönen Kontrast zu erzeugen.


<p> Paragraph

Innerhalb des Bodys und der Divs sind die ganz normalen Textabschnitte, welche in HTML mit einem "<p>" eingeleitet werden für das englische Paragraph.

Nach so einem Paragraph schließt man diesen wieder mit "</p>", sonst ist der Code invalide und funktioniert nicht.


<b> <i> Fett, Kursiv und Unterstrichen

Innerhalb des Paragraph kann ich Dinge fett markieren mit dem "<b>Dieser Text wird fett.</b>" und auch kursiv "<i>Dieser Text wird kursiv.</i>".

Unterstreichen kann man folgendermaßen: "<u>Dieser Text ist unterstrichen.</u>"


<br> Umbruch

Wenn man einen Absatz innerhalb eines Paragraphs oder auch danach machen möchte, dann verwendet man im HTML das "<br>", welches sich von dem englischen Break ableiten lässt. 


<ul> <li> Liste

Eine Liste wie zum Beispiel diese hier:

  • Das
  • ist
  • eine
  • Liste

Erstellt man in HTML folgendermaßen.

Man beginnt mit dem "<ul>" und schließt auch am Ende mit dem "</ul>". Das erklärt also den Anfang und das Ende der Liste.

Dazwischen fügt man einzelne Listen-Elemente mit dem "<li>" ein.

Die fertige Liste von oben sieht dann so aus:

"<ul>
<li>Das</li>
<li>ist</li>
<li>eine</li>
<li>Liste</li>
</ul>"

<id> 

Jedem Element von HTML kann eine class und eine ID zugeordnet werden.

Die class definiert die Art und Weise und die ID gibt einfach einen bestimmten Namen.

Die ID wird häufig auch verwendet, um Verlinkungen auf derselben Webseite zu realisieren.

Wenn man zum Beispiel am Anfang eines Artikels zum Fazit verweisen möchte, dann kann man das mit der ID-Funktion realisieren.


  1. Zuerst muss man das Element dafür festlegen, zu welchem verwiesen werden soll. Nehmen wir als Beispiel die letzte Überschrift eines Artikels, welche "Fazit" lautet.
  2. Im HTML-Code sieht diese Überschrift dann wie folgt aus: "<h2>Fazit</h2>"
  3. Nun fügt man einfach eine id hinzu: "<h2 id="Link">Fazit</h2>" 
  4. Schon kann man dazu verlinken mit einem # davor. Wenn ich also oben zum Fazit verlinken möchte, dann verlinke ich einfach #Link und man springt beim Klicken dieses Links nach ganz unten zu dieser Überschrift.


Merke: Wenn man von einer anderen Seite direkt zum Fazit dieses Artikels verlinken möchte, dann muss man noch die URL davor hinzufügen.

https://beispiel.de/artikel/#Link

Diese Ids sollte man aus SEO-Sicht bei allen wichtigen Überschriften hinterlegen aus 2 Gründen:

  1. Google vergibt eventuell das Rich Snippet "Site Links"
  2. Man kann ein Inhaltsverzeichnis oben einfügen


Der Footer ist das Ende der Webseite, welcher sich aber noch im Body-Tag befindet.

Der Footer ist typischerweise bei allen Webseiten gleich und man findet dort den Datenschutz, das Impressum und die AGBs und weitere wichtige Links, welche auf jeder Seite vorhanden sein sollten.

So einen Footer selbst zu erstellen in HTML ist etwas aufwändig und dafür empfehle ich einen Webseiten-Builder zu verwenden wie Chimpify (mein Favorit).



Wer tiefer in die Materie einsteigen möchte, der sollte unbedingt bei W3School (Englisch) oder bei WikiSelf (Deutsch) vorbeischauen.

Wenn du einen kompletten HTML Einführungskurs möchtest, dann empfehle ich dir auf GoSkills vorbeizuschauen, dort gibt es Kurse für HTML, CSS und Javascript.


JavaScript

JavaScript ist die Programmiersprache, welche für komplizierte Aufgaben und Software auf eine Webseite verwendet wird.

Mit HTML kann man wirklich nicht groß Dinge programmieren, sondern es ist eher die Sprache, um Inhalte darzustellen.

JavaScript hingegen ist eine volle Programmiersprache mit allem Drum und Dran. (Nicht zu verwechseln mit Java).

Damit kann man also komplette Web-Apps entwickeln und komplexe Software, welche auf Webseiten läuft.

Als Blogger kommt man an dieser Sprache nicht sonderlich oft vorbei. Außer bei den strukturierten Daten. Das ist aber wirklich sehr einfach.


Wenn du einen kompletenn Kurs zum Thema JavaScript belegen möchtest, dann schau hier vorbei.



]]>
https://patrickbreitenstein.com/seo-lexikon/html/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Keyword https://patrickbreitenstein.com/seo-lexikon/keyword/ https://patrickbreitenstein.com/seo-lexikon/keyword/#comments Thu, 01 Apr 2021 20:08:00 +0000 K https://patrickbreitenstein.com/seo-lexikon/keyword/ Weiterlesen

]]>
Ein Keyword (kurz KW) ist ein Schlüsselbegriff bzw. Schlagwort, welches bei Suchmaschinen eingetippt wird. Der Begriff wird im SEO häufig verwendet, um ein Themengebiet bzw. Thema zu beschreiben, für welches eine Webseite auf Google und Co ranken (in den SERPs) möchte.



Keyword Schwierigkeit

Die Keyword Schwierigkeit ist ein Indikator, welcher angibt, wie schwer es ist in die oberen Positionen der organischen Suchergebnisse zu kommen bei einem Keyword.

Im Englischen heißt der Begriff Keyword Difficulty und wird deshalb oft mit KD abgekürzt.

Die Schwierigkeit beschreibt also, wie kompetitiv ein Schlagwort ist.

Im Prinzip analysiert dieser Wert, wie autoritär die oberen Suchergebnisse sind.

Dabei fließt die Domain- und Page-Autorität ins Gewicht.

Je niedriger die Autorität und die Anzahl der Backlinks der ersten Ergebnisse, desto einfacher ist ein Keyword.


Keyword Recherche

Keyword Recherche

Die Keyword Recherche beschreibt den Prozess, bei welchem man nach passenden Keywords für eine Webseite sucht.

Oftmals sucht man in diesem Zusammenhang Keywords mit einer möglichst geringen Keyword Schwierigkeit und einem hohen Suchvolumen pro Monat.

Suchvolumen = Anzahl der Suchanfragen pro Monat meistens bei Google.


Wie man eine komplette Keyword Recherche mit SEMrush durchführt, erfährst du hier & hier gibt es die besten kostenlosen Keyword Tools.

Keyworddichte

Die Keyworddichte beschreibt den prozentualen Anteil eines Keywords im Vergleich zu allen anderen Wörtern auf eine Webseite.

Im Englischen heißt der Begriff Keyword Density.


Ein einfaches Beispiel dafür:

Eine Webseite hat 100 Wörter.

Diese Webseite möchte die Keyworddichte des Keywords "Auto" analysieren.

Das Wort Auto kommt 10 Mal in dieser Webseite vor.

Das heißt die Keyworddichte des Keywords "Auto" beträgt 10%.


Den Begriff gibt es schon sehr lange im SEO, denn damals hat Google diesen Wert als einen sehr wichtigen Indikator verwendet, um eine Webseite für ein Keyword zu ranken.

Diese Zeiten sind vorbei und Google und Co gehen immer mehr zu Themen Cluster statt reinen Keywords. Google ist auch schlau genug, um LSI Wörter zu dem passenden Keyword zuzuordnen.

Hier gibt es mehr zum Thema: Altes SEO vs Neues SEO

Keywordstuffing

Gerade weil in der alten Praktik des SEO die Keyworddichte so wichtig war, hat sich daraus der Trend des Keywordstuffings entwickelt.

Keywordstuffing ist ein Prozess, bei welchem man auf unnatürliche Art und Weise einen Text einer Webseite mit dem Schlagwort füllt, auch an Stellen, an welchen es inhaltlich keinen Sinn ergibt oder auch die Leserlichkeit beeinträchtigt.


Diese Praktik hat einen damals bei den SERPs weit nach oben gebracht, schadet aber seit den neueren Google Core Updates mehr als es hilft.

Eine gesunde Keyworddichte befindet sich zwischen 3-5%. 10% ist oft schon etwas zu auffällig, kann aber funktionieren, insofern es wirklich durch einen natürlichen Schreibprozess entstanden ist.

Long-Tail-Keyword

Das Long-Tail-Keyword bedeutet übersetzt sinngemäß: Langes Schlagwort.

Der Hintergrund davon hängt mit der Keyword Schwierigkeit stark zusammen.

Denn kurze Keywords wie z.B. "Geld" sind in der Regel sehr kompetitiv und es ist unheimlich schwer für eine neue Webseite dort zu ranken.

Weshalb im SEO auf ein sogenanntes Long-Tail-Keyword ausgewichen wird, welches spezifischer auf die jeweilige Nische zutrifft, damit dann auch weniger Suchvolumen und eine geringer Keyword Schwierigkeit hat. In diesem Fall wäre das dann "Geld verdienen während man wandert" zum Beispiel.


Das Money Keyword

Das Money Keyword ist das Keyword, mit welchem ich mein Geld verdiene bzw. verdienen möchte.

Wenn du auf deiner Webseite Autos verkaufen möchtest, dann ist dein Money-Keyword "Auto kaufen" oder "Auto kaufen online".

Diese Money-Keywords sind oft voll mit Werbung und sind sehr kompetitiv, da du selten der erste bist, welcher diese Möglichkeit entdeckt hat.

Ein herkömmlicher Fehler in SEO ist, dass man sich nur auf das Money-Keyword fokussiert und vergisst, dass es auch andere Keywords gibt, welche etwas weiter entfernt scheinen, aber auch zum Ziel führen, welche dann meistens weniger kompetitiv sind, da kaum jemand um die Ecke denkt.


LSI Wörter

LSI bedeutet Latent Semantic Indexing und bedeutet so viel wie, dass Suchmaschinen nicht anhand von exakten Worten indexieren, sondern ganze semantische Ketten und Themenbereiche von Wörtern.

Es kann helfen solche verwandten Wörter in den Text mit aufzunehmen, damit Google den Inhalt besser versteht und indexieren kann.


Des Weiteren werden diese LSI Wörter auch verwendet für die Ankertexte von den Backlinks. Denn man sollte sein Money-KW nicht zu häufig direkt in den Ankertext des Backlinks nehmen, denn sonst merkt Google recht schnell, dass es sich um unnatürlichen Linkaufbau handelt und das kann abgestraft werden.




]]>
https://patrickbreitenstein.com/seo-lexikon/keyword/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Themen Cluster (Topic Clustering) https://patrickbreitenstein.com/seo-lexikon/themen-cluster/ https://patrickbreitenstein.com/seo-lexikon/themen-cluster/#comments Tue, 30 Mar 2021 23:33:00 +0000 T https://patrickbreitenstein.com/seo-lexikon/themen-cluster/ Weiterlesen

]]>
Ein Topic Cluster oder auf Deutsch Themen Cluster ist eine Ansammlung von Unterthemen zu einem übergeordneten Themenbereich.

Das SEO-Lexikon ist beispielsweise ein Themencluster zum Themenbereich von SEO.

Das "Topic Clustering" ist ein Bereich, welche in der SEO in den letzten Jahren stark an Bedeutung gewonnen hat, denn Google (bzw. Suchmaschinen) möchte immer weiter weg von einzelnen Keywords und immer mehr in Richtung Themenfeldern gehen.

Webseiten, welche also sauber strukturierte Topic Cluster liefern, bekommen mehr Autorität von Google.

Das zentrale Stück eines solchen Themen Clusters ist die Pillar Page.


Hier die grafische Veranschaulichung zu dieser Cluster Struktur:

Themen Cluster einfach erklaert

Inspiriert von Hubspot.




Die Pillar Page erklärt 

Die Pillar Page ist eine Übersicht zu dem Leitthema, von welcher man zu allen Unterthemen abspringen kann.

Hier ein paar Beispiele von der Pillar Page Struktur:
  • Themenbereich SEO = Pillar Page = Ultimativer Leitfaden für SEO 2021
  • Themebereich Schuhe = Pillar Page = Dein Guide zum perfekten Schuh
  • Themebereich Facebook Ads = Pillar Page = Facebook Ads von A-Z


Da es schier unmöglich ist seinen kompletten Themenbereich in einer Seite oder einem Artikel darzustellen, gibt man auf dieser Seite Absprungmöglichkeiten zu den wichtigen Unterthemen.

Die Pillar Page sollte also auf dein Money-Keyword ausgerichtet sein.


Zusammenhang mit Autorität

Google präferiert Webseiten, welche absolute Spezialisten in ihrem Themebereich sind über Generalisten wie zum Beispiel die großen Magazine Handelsblatt, Spiegel und Focus.

Genau dort kommt dann auch das Topic Clustering ins Spiel.

Wenn eine Webseite für eine Thematik viel tiefergehende Informationen bietet als eine andere, dann wird Google diese Webseite (auf Dauer) höher ranken, auch wenn die andere Webseite mehr Backlinks hat.

Die Anwendung des Topic Clusterings ist somit optimal für kleinere Webseiten gegen große Giganten anzukämpfen, indem man sich auf eine kleine Nische fokussiert und diese von allen Seite tiefgehend beleuchtet mit allen Unterkategorien.


Essenziell ist es, dass man dabei den Fokus des reinen Suchvolumens etwas aus den Augen verliert, um eine maximale Themenrelevanz aufzubauen.

Denn, wer sich nur großen Themen widmet, der wird niemals eine tiefgehende Relevanz aufbauen, welche auch alle Unterkategorien abdeckt.

Manche Unterthemen werden nämlich ein sehr geringes Suchvolumen aufweisen, was einen aber nicht davon abhalten sollte, diese Themen zu behandeln. Denn damit baut man eine Themen- und Nischenrelevanz auf, welche die Giganten nicht haben, da diese sich nie auf kleine Keywords oder Long-Tail-Keywords fokussieren.

Das ist eine der besten Strategien, um mit 0 Backlinks zu ranken.


Mehrere Cluster aufbauen

Zu früh sollte man sich mit dieser Thematik nicht beschäftigen, denn sonst erreicht man nie das Level an Themen- und Nischenrelevanz, welches man benötigt, um mit Giganten zu konkurrieren.

Wenn man das aber schon geschafft hat und seine kleine Nische wirklich von oben bis unten durchleuchtet hat, dann kann man auch ein zweites, drittes oder viertes Cluster aufbauen.

Optimal ist es, wenn man die Nische einfach nur etwas öffnet, denn dann nimmt man die alte Themenrelevanz mit in die neuen Gebiete.

Die Faustregel lautet: Umso weiter das neue Themengebiet vom etablierten Themengebiet entfernt liegt, umso länger und schwerer ist es, dort die Themenrelevanz aufzubauen.


Wenn man mehrere Cluster aufbaut, sollte man auch über eine Silo-Struktur nachdenken, damit Google die Cluster besser und einfacher zuordnen kann.


]]>
https://patrickbreitenstein.com/seo-lexikon/themen-cluster/feed/ 2 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Autorität - Webseiten-Autorität (DA, PA) https://patrickbreitenstein.com/seo-lexikon/autoritaet/ https://patrickbreitenstein.com/seo-lexikon/autoritaet/#comments Tue, 30 Mar 2021 21:55:00 +0000 A https://patrickbreitenstein.com/seo-lexikon/autoritaet/ Weiterlesen

]]>
Die Webseiten Autorität ist ein Wert, welcher beschreibt, wie vertrauenswürdig eine Seite ist für die Suchmaschinen.

Der Wert geht dabei oftmals von 0 (keine Autorität) bis 100 (höchste Autorität).

Es gibt keine offizielle Einstufung von Google und Co, doch SEO-Experten sind sich einig, dass dieser Wert einen großen Einfluss auf das Ranking hat.

Kurz gefasst ergibt sich diese Autorität aus den folgenden Hauptbestandteilen:

  1. Anzahl & Qualität der Backlinks bzw. verweisende Domains (Mehr dazu)
  2. Alter der Webseite (Mehr dazu)
  3. Themenrelevanter Inhalte Traffic bzw. Rankings (Mehr dazu)

Was das alles im Detail bedeutet, erläutern wir hier.


Ähnliche Bezeichnungen: Domain-Score, Domain-Rating oder auch Trust Flow



Bestandteile im Detail

In der Erklärung zu den Backlinks zeigen wir genauer auf, was ein Backlink mit dem Google Ranking und somit der Autorität einer Webseite zu tun hat.

Das Prinzip an sich ist jedoch ganz einfach:

Je mehr qualitative Links eine Webseite hat, desto mehr vertrauen Google und Co auf die Inhalte der Webseite und desto höher wird diese Webseite bei den Suchergebnissen (SERP) eingestuft.

Die Qualität dieser Links wird wiederum mit der Autorität der verlinkenden Domain gemessen.


Machen wir dazu ein kurzes Beispiel:

Im SEO-Bereich sind wir verrückt nach einem Wikipedia-Link. Denn Wikipedia ist eine der Seiten mit der höchsten Webseiten-Autorität der Welt!

Wie kam diese Autorität zustande?

Ganz einfach: Weil so viele andere Webseiten zu den tollen Definitionen und ausführlichen Artikeln auf Wikipedia verlinkt haben.

Wenn man also von Wikipedia verlinkt wird, dann bekommt man von der enormen und hart erarbeiteten Autorität von Wikipedia eine Scheibe ab, was der eigenen Webseite wiederum mehr Autorität verleiht.

Wikipedia hat also sehr viel LinkJuice.

(Außer es handelt sich um einen No-Follow-Link.)


Das geschieht übrigens ohne, dass Wikipedia diese Autorität verliert, also bitte nicht denken man häuft Autorität an wie Geld, sondern es ist eher ein Multiplikator, welcher verteilt und vervielfacht werden kann.


Die simple Regel lautet also:

Je mehr qualitative Webseiten auf deine Webseite verlinken, desto höher ist deine Domain-Autorität (DA) und desto einfacher und höher rankst du auf Google und Co.

Mit Backlinked.de kannst du Backlinks kaufen, schau dir meine Erfahrung dazu an.


Alter der Webseite

Google ist kein Fan von neuen Webseiten!

Wenn eine Webseite neu startet, dann hat Google keinerlei Beweise und Empfehlungen (Backlinks), dass diese Seite auch qualitativ ist.

Oftmals werden auch Seiten erstellt, welche nach einem halben Jahr einfach wieder vom Boden verschluckt werden und deshalb möchte Google lieber auf Nummer sicher gehen und wartet in der Regel eine gute Weile, bis es neue Webseiten in die Suchergebnisse (SERP) weit oben mitaufnimmt.

Wenn eine Webseite älter als ein halbes oder besser ein Jahr ist, dann ist Google eher bereit über eine gute Platzierung bei wichtigen Suchbegriffen "nachzudenken".

Deshalb ist SEO auch ein langfristiges Unternehmensziel und keine zeitlich begrenzte Werbe-Kampagne.


Themenrelevanter Traffic bzw. Rankings

Ein weiteres Indiz, dass eine Webseite von Relevanz ist bei einer Suchanfrage, sind die themenrelevanten Rankings und Inhalte (Themen Cluster).

Einer der Grundgedanken dieses SEO-Lexikons ist, damit Google themenrelevante SEO-Inhalte auf dieser Seite findet und damit diese Seite in die Expertennische von SEO einordnet. Das ist seit dem E-A-T Update von Google noch wichtiger geworden. 

Von Google Update zu Google Update ist die Tendenz nämlich eindeutig:

➡️ Es geht in Richtung Themen Cluster und weg von reinen Keywords.

Das bedeutet, dass Webseiten, welche ein Themengebiet vollständig abdecken, mehr Autorität von Google bekommen.

➡️ Google präferiert Spezialisten über Generalisten.

Dieser Punkt ermöglicht es auch kleinen Webseiten, welche weniger Backlinks besitzen andere Webseiten zu "outranken" (überholen bei den SERP-Platzierungen).


Unterschied zwischen DA und PA

Es gibt zwei wichtige Unterschiede. Es gibt die Domain-Autorität und die Page-Autorität.

Die Domain-Autorität ist die Bewertung der kompletten Webseite.

Die Page-Autorität oder auch Seiten-Autorität ist die Bewertung der einzelnen Seite bzw. URL.


Hier ein Auszug von dem Keyword-Tool ahrefs dazu:

Ahref Domain Rating und URL Rating


  • Links ist das DR = Domain-Rating bzw. Domain-Autorität
  • Rechts ist die UR = URL-Rating bzw. Seiten-Autorität


Um auf Google zu ranken, spielt die PA eine größere Rolle als DA, denn Google betrachtet jede Seite und die dazugehörige Autorität einzeln.


Autorität als Rankingfaktor

Das sollte auch die Frage des Rankingfaktors beantworten.

Ja, Google misst die Autorität einer Webseite sehr ausführlich, bevor diese auf Platz 1 gerankt wird. Dabei wird aber jede URL einzeln behandelt.

Nichtsdestotrotz hat eine Domain, welche eine allgemein hohe Bewertung hat bessere Chancen zu ranken, als eine Domain mit einer schlechten Bewertung.

Bei meiner eigenen SEO-Analyse beachte ich also immer, dass eine meine DA ungefähr gleich groß ist wie die DA eines Mitbewerbers, welcher in den Top 5 bei den SERPs ist. 


Schauen wir uns dazu ein Beispiel an:

Mein Keyword: Schuhe

DA meiner Webseite: 18 (Kann man hier kostenlos testen.)

Analyse der Suchergebnisse mit einem KeywordTool:

  1. Platz 1 DA: 72
  2. Platz 2 DA: 77
  3. Platz 3 DA: 39
  4. Platz 4 DA: 73
  5. Platz 5 DA: 58
Beispiel Domain Autoritaet erklaert


Mit einer Domain-Autorität von 18 muss ich mir dieses Keyword also nicht vornehmen.

Wenn ich jedoch knapp eine DA von 30 hätte, dann könnte man schon eher über die Ranking-Chancen sprechen.

Das ist ein umstrittenes Thema und manche SEO-Experten argumentieren, dass nur die PA also Page-Autorität ausschlaggebend ist. Meine Erfahrung ist jedenfalls, dass ich ungefähr in derselben Größenordnung sein möchte mit meiner DA, um meine Ranking-Chancen zu maximieren.


Übrigens: Man sieht an diesem Beispiel wunderschön, dass die PA (Autorität der einzelnen Seite) viel wichtiger ist für das tatsächliche Ranking am Ende. Die PA hängt mit der Anzahl der themenrelevanten qualitativen Backlinks und verweisenden Domains zusammen.

Hier gibt es mehr dazu.



Tools zur Messung der Autorität

Die meisten SEO-Tools messen heutzutage das Rating bzw. die Autorität einer Webseite ganz selbstverständlich mit.

Herkömmliche SEO-Tools zur Messung der Domain und Page Autorität sind:


Kostenfrei kann man es bei SEMrush und auch bei Ahrefs hier testen lassen, leider in beiden Fällen nur die Domain-Autorität und nicht die Page-Autorität.


Zusammenfassung

Die Domain Autorität und Page Autorität sind beides absolute Kernbestandteile des SEO und sollten bei jedem Webseitenbesitzer ein Thema sein.

Viel zu oft wird über Rankings geredet und utopische Pläne geschmiedet, ohne die Autorität der bereits rankenden Webseiten zu berücksichtigen.

SEO ist eine langfristige Unternehmenseinstellung und keine kurze Kampagne. Aus dauert viel Zeit und Aufwand eine hohe Domain und Page Autorität auszubauen und Werte über 60 können Jahre dauern.

Das Ganze ist aber dann auch ein enorm wertvolles Asset und ein Vermögenswert der Firma. Es schafft eine unheimlich große Barriere für den Wettbewerb.

Einmal aufgebaut, rankt man viel einfacher auf Google und Co und kann dadurch zukünftig kostengünstige Lead-Maschinen aufbauen mit viel Traffic und sein Unternehmen zu einem echten Imperium heranwachsen lassen.


]]>
https://patrickbreitenstein.com/seo-lexikon/autoritaet/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
Backlink https://patrickbreitenstein.com/seo-lexikon/backlink/ https://patrickbreitenstein.com/seo-lexikon/backlink/#comments Tue, 30 Mar 2021 19:52:00 +0000 B https://patrickbreitenstein.com/seo-lexikon/backlink/ Weiterlesen

]]>
Ein Backlink ist eine Verlinkung von einer Webseite zu einer anderen Webseite.

In Regel spricht man davon, dass ein Backlink von einer externen Webseite (der verweisenden Domain) zu seiner Zielseite leiten soll, was der Zielseite mehr Autorität verleiht, wodurch man in den SERP-Rankings bei Google und Co steigt.

Andere Bezeichnungen sind: Hyperlink oder Verlinkung.

Ankertext



Interne & Externe Backlinks

Beim Backlink unterscheidet man grundsätzlich zwischen zwei Arten von Links:

Interne & Externe Links

Interner Backlink = Ein Link, bei welchem eine eigene Seite zu sich selbst verlinkt.

Externer Backlink = Ein Link, bei welchem eine fremde Seite (Domain) zu einer Seite verlinkt.


Hier eine einfache grafische Erklärung dazu:

Externer und Interner Backlink


Externe Backlinks sind um einiges wertvoller als interne Backlinks, da sie für Google ein stärkeres Signal der Autorität sind und somit verhelfen bessere Rankings auf Google zu bekommen.

Nichtsdestotrotz ist es aus einer SEO-Perspektive sehr wichtig, dass eine Seite auch gut intern verlinkt ist, damit Google die Struktur der Webseite besser verstehen kann.

Im Zusammenhang der internen Verlinkung sind die Themen Cluster und die Silos wichtig.


Attribute eines Links

Eine Verlinkung ist nicht gleich eine Verlinkung, denn Links können verschiedene Attribute aufweisen.

Das wichtigste Attribut ist das NoFollow Attribut, welches darüber entscheidet, ob Google einen Link beachtet oder nicht. Hier die ausführliche Erklärung dazu.

Ein normaler Backlink ist folgendermaßen in HTML aufgebaut:

Standard Link in HTML

Der Link wird von a umklammert und in href kommt dann die URL mit den Anführungszeichen "" hinein.

Danach schreibt man den Ankertext.

Ankertext = Text, welcher beim Backlink angezeigt werden soll. Häufig in blauer Farbe.

Wenn man möchte, dass sich der Link in einem neuen Tab öffnet, dann kann man noch das Attribut target hinzufügen.

Weitere Details zum Target Attribut gibt es hier, doch das wichtigste Attribut ist target _blank.

Link oeffnen in einem neuen Tab


Dann gibt es noch das Attribut Titel, mit welchem man Suchmaschinen wie Google einen anderen Namen gibt. Dieser Name ist nicht der sichtbare Ankertext, sondern bleibt unsichtbar im Code.

Link mit Title Attribut fuer SEO


Dieses Attribut sollte man verwenden, wenn der Ankertext etwas unklar sein könnte, damit Google besser zuordnen kann, in welche Kategorie deine Webseite einzuordnen ist.


Der Backlink als Rankingfaktor

Backlinks als Ranking Faktor

Laut SearchEngineLand ist der Backlink immer noch der wichtigste Rankingfaktor!

Diese Aussage ist selbst bei vielen SEO-Experten umstritten. Fakt ist und bleibt jedoch, dass der Backlink enorm wichtig ist, um weit oben auf Google zu ranken.

Ob der Backlink tatsächlich Faktor Nummer 1 ist oder ob das Themen Cluster diesen vom Thron gestoßen hat ist unklar, da Google nicht preisgibt, wie die Rankingfaktoren genau zusammengestellt sind.


➡️ Google verwendet Backlinks als Empfehlungen.


Ein Veranschaulichung dazu:

Stell dir vor, du müsstest jemandem eine Präsentation geben zu den 5 besten Reifensets, hast aber selbst kein Auto und keine Erfahrung mit Reifen...

Backlinks anhand Reifenbeispiel erklaert

Wie würdest du vorgehen?

Eine sinnvolle Herangehensweise, wäre eine Recherche und eine Analyse durchzuführen, um zu sehen, welche Reifen haben die besten Bewertungen und die meisten Empfehlungen der Autobesitzer.

& Genau das ist Google! Google ist immer auf der Suche nach der besten Präsentation für eine Frage, obwohl Google selbst die Antwort nicht kennt. Deshalb sucht sich Google Webseiten zusammen, welche die meisten Empfehlungen haben (Backlinks) und deshalb relativ sicher eine gute Antwort parat haben.

Grundsätzlich ist also das Resultat mit mehr "juicy" Links, das Resultat, welches weiter oben rankt auf Google.

Das stimmt im Durchschnitt, kann aber im Einzelfall stark variieren, denn Google hat noch knapp 200 weitere Rankingfaktoren.


Unterschied zwischen einem Backlink & einer verweisenden Domain

Eine Kennzahl, welche häufig mit den Backlinks verwechselt wird, sind die "Verweisenden Domains", dabei ist der Unterschied sehr wichtig im SEO.


Hier die Erklärung anhand eines Beispiels:

Wenn die Seite "www.testdomain.de/testartikel/" einen Link von "www.abc.de/artikel1/" hat und einen zweiten Link von "www.abc.de/artikel2/" dann hat die testdomain 2 Backlinks, aber nur 1 verweisende Domain (abc.de).

Andersherum: Wenn die Seite "www.testdomain.de/preise/" einen Link von "www.abc.de/artikel1/" und einen link von "www.xyz.de/preise/" hat, dann hat die testdomain 2 Backlinks und 2 verweisende Domains (abc.de & xyz.de).


Dieser Unterschied ist wichtig, da die Anzahl der relevanten verweisenden Domains ein noch viel stärkeres Signal für Google sind. Denn je mehr unabhängige Quellen eine Empfehlung geben, desto besser und sicherer fühlt sich Google diese Webseite zu ranken.

Wer also Links aufbauen möchte, um auf Google zu steigen, der sollte sich viel mehr um die verweisenden Domains kümmern, statt um die Backlinks als solche.


Link Juice

Der Begriff Juice heißt wörtlich übersetzt Saft und im Zusammenhang mit SEO bezieht man sich dabei in der Regel auf den Wert eines Backlinks.

Im Prinzip: "Wie viel Saft steckt hinter dem Link?"

Je höher die DA (Domain Autorität) und PA (Page Autorität) ist, desto mehr Saft bzw. Juice steckt in diesem Link.

Ein No-Follow-Link hat gar keinen Juice, da dieser von Google ignoriert wird und bis auf schwache Einflüsse relativ wertlos ist für das Ranking bei den Suchmaschinen.


Umso mehr "juicy" Links man für seine Seite anzieht, desto höher rankt man in den SERPs ergo man bekommt mehr Besucher und dann auch mehr Umsatz, wenn man alle Hebel richtig bedient.


Viel mehr steckt hinter dem Begriff nicht.

Das SEO-Tool MangoTools verwendet diesen Begriff sehr häufig.

Juicy Links mit MangoTools



No Follow und Do Follow erklärt

Ein Do-Follow Link ist ein ganz herkömmlicher und normaler Backlink zu einer Webseite.

Ein No-Follow Link verlinkt immer noch auf eine Webseite, hat aber den Zusatz "nofollow", was Suchmaschinen wie Google angibt, dass diesem Link nicht gefolgt werden soll und somit wird auch keine Autorität übermittelt.


Hier wird der Begriff Webseiten-Autorität erklärt & hier der Backlink generell.

Was bedeutet das im Detail?

Google crawlt (= analysiert) jede Webseite auf externe und interne Links. Dabei kategorisiert die Suchmaschine die gefundenen Links und vergibt Autorität und Rankings.

Ein No-Follow Link wird von Google ignoriert und nicht beachtet und fließt somit auch nicht die Rankingfaktoren mit ein, welche dafür sorgen, dass eine Webseite auf Platz 1 bei Google wird.


Gründe für einen No-Follow Link? 

Typischerweise setzt man einen No-Follow-Link, wenn man nicht möchte, dass die eigene Webseite mit der Zielwebseite verbunden wird oder wenn es sich um einen Link für Werbung handelt.

Google möchte nämlich nicht, dass bezahlte Links als normale (Do-Follow) Links gekennzeichnet werden.


Warum?

Google verwendet Backlinks als Empfehlungen, welche dann entscheiden, wer rankt wo in den SERPs rankt.

Diese Empfehlungen (Backlinks) sollten alle allein auf Basis des Inhalts und der Qualität der jeweiligen Webseite sein und nicht einfach nur erkauft.

Um diese echten Empfehlungen auf Basis von Qualität von den Empfehlungen zu trennen, welche einfach erkauft sind, gibt es den No-Follow Link.


Wie erstellt man einen No-Follow Link? 

In den meisten Tools ist das No-Follow Attribut bereits im Editor des CMS eingebaut.

So sieht das beispielsweise bei Chimpify aus:

No Follow Link Beispiel


Sonst kann man den Link einfach selbst von Hand in den Code einbauen, indem man zu dem Link rel"nofollow" hinzufügt.


So sieht der fertige No-Follow Link dann aus:

No Follow Link in HTML
  • Ankertext = Der Text deines Links
  • href= Die URL deines Links


Wann No-Follow Link verwenden?

Wenn du einen Link zu einer Webseite einfügst, bei welcher du dir nicht sicher bist, ob diese Webseite seriös ist, dann kann sich ein No-Follow Link lohnen oder auch wenn du einen Werbelink platzierst.

Sei es auf dem Banner neben deinem Text oder im Footer. Jeder Link sollte geprüft sein und falls nötig mit rel="nofollow" versehen werden.

Sei aber nicht zu streng und nimm nicht zu viele Links auf No-Follow, sonst ist deine Autorität auch fraglich, denn warum sollte eine qualitative Webseite zu so vielen "nicht vertrauenswürdigen" oder "werbehaltigen" Webseiten verlinken?

Ich zum Beispiel verlinke IMMER Do-Follow zu anderen Blogs, aber setzte meine Affiliate Links auf No-Follow. 

Linkprofil

Ein Linkprofil ist die Zusammensetzung der Backlinks nach verschiedenen Faktoren.

Häufig werden sich dabei folgende Dinge angesehen:

Das Ziel eines Linkprofils ist die Erkenntnis, wo noch Verbesserungspotential ist. Das ist bei jeder Webseite unterschiedlich. Manche Webseiten haben zum Beispiel zu wenig Do-Follow-Links und deshalb keine Autorität, andere Webseiten haben zu oft unpassende Ankertexte.


Linkaufbau

Da Backlinks immer noch der wichtigste Rankingfaktor bei Google sind, ist es gang und gäbe im SEO einen Linkaufbau zu betreiben.

Obwohl Google offiziell angibt gegen den "unnatürlichen" Aufbau von Links zu sein, funktionieren viele Strategien doch noch sehr gut, um weitere Positionen auf Google zu erobern und verstoßen, wenn man nicht bezahlt, auch nicht direkt gegen die Richtlinien.

Organisch

Der natürliche Weg des Linkaufbaus ist der Favorit von Google, da es sich dabei nur um echte Empfehlungen handelt.

Organische Links sind also Links, welche nicht gekauft sind, sondern nur entstehen, da andere Webseiten wirklich denken, dass der jeweilige Inhalt eine Verlinkung wert sei.

Viele denken, dass organisch bedeutet, dass man in den Prozess nicht eingreifen soll. Das stimmt jedoch an sich nicht.

Man kann sehr wohl potentielle Webseiten anschreiben, welche interessiert an dem jeweiligen Inhalt sein könnten und diese Webseiten aufmerksam machen auf den eigenen qualitativen Content.

Man sollte nur nicht mit Geld oder anderen Belohnungen arbeiten, wenn man einen rein organischen Linkaufbau betreiben möchte.

Der einzige Grund zur Verlinkung sollte dann eben sein, dass der eigene Inhalt so gut ist, dass diese Webseiten gerne dazu verlinken, um zum Beispiel ihren Lesern mehr Mehrwert zu bieten.

Leider ist diese Form des Linkaufbaus immer schwerer geworden die letzten Jahre, da viele Webseiten erkannt haben, dass Linkverkauf ein echtes Business ist und deshalb häufig Preise für ihre Links verlangen.

Bezahlt

Der bezahlte Linkaufbau kann viele Formen annehmen. Oftmals kann es nämlich beim organischen Linkaufbau passieren, dass einige Webseiten eine Linkplatzierung anbieten, welche Geld kostet sowohl bei Do-Follow und No-Follow.

Googles offizielle Richtlinien verbieten diese Form des Linkaufbaus, jedoch ist es in der Praxis oft so, dass Links verkauft und gekauft, werden, um den Prozess etwas anzukurbeln.

Hinweis: Bezahlter Linkaufbau ist absolut sinnfrei, wenn der eigene Inhalt / Artikel nicht absolute Spitze ist. Der beste Backlink der Welt wird eine Webseite nicht langfristig auf Platz 1 ranken, wenn nicht auch der Inhalt würdig ist den Platz 1 einer Suchanfrage anzunehmen.

Hier relevante Artikel von mir zu diesem Thema:


Link Kooperationen

Eine weitere häufige Form des Linkaufbaus sind sogenannte Link-Kooperationen, bei welchen eine Webseite auf die andere verlinkt und im Austausch diese dann zurückverlinkt.

Hier geht es zu hilfreichen 16 Tipps zum Linkaustausch.

Wenn solche Kooperationen eingegangen werden, dann sollten die Anzahl der Links sehr begrenzt werden, welche getauscht werden.

In jedem Fall ist diese Strategie nicht ausreichend für den Linkaufbau.


Mehr zum Thema Linkaufbau:
Ich empfehle den ausführlichen Guide von Brian Dean dafür.



Zusammenfassung

Der Backlink ist immer noch ein absolutes Fundament im SEO-Bereich.

Man sollte deshalb unbedingt verstehen was ein Backlink ist, was der Unterschied zwischen internen und externen Links und auch verweisenden Domains ist.

Jeder, der im Bereich SEO tätig ist, muss den Linkaufbau beherrschen, um langfristig Erfolg zu haben in den SERPs.

Beim Linkaufbau ist dann auch das Linkprofil zu analysieren, damit man eine ausgewogene Statistik hat und keine Bestrafung von Google bekommt.


]]>
https://patrickbreitenstein.com/seo-lexikon/backlink/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
SERP - Search Engine Result Pages https://patrickbreitenstein.com/seo-lexikon/serp/ https://patrickbreitenstein.com/seo-lexikon/serp/#comments Tue, 30 Mar 2021 17:18:00 +0000 S https://patrickbreitenstein.com/seo-lexikon/serp/ Weiterlesen

]]>
SERP = Search Engine Result Pages

Das bedeutet auf Deutsch: Suchmaschinen-Ergebnis-Seiten 

Das sind also die Seiten, auf welchen die Suchergebnisse zu einer Suchanfrage gelistet und sortiert sind.

Ganz einfach erklärt mit einem Bild:

SERP von Google erklaert


Das Ziel es immer auf Seite 1 von Google und Co zu gelangen und damit weit hoch in den SERPs zu kommen, damit man möglichst viele Webseiten-Besucher bekommt.

Im Nachfolgenden fokussieren wir uns auf die SERPs von Google, da Google der Marktführer mit dem meisten Einfluss und Suchvolumen weltweit ist.




Aufbau der SERPs von Google

Google entwickelt sich laufend weiter und der Aufbau der SERPs von Google deshalb auch. Des Weiteren ist jede Suchanfrage von Google auch unterschiedlich, weshalb dort nochmals der Aufbau der SERPs verändert sein kann.

Google Ads

Typischerweise ist das Erste, was man bei einer Suchanfrage präsentiert bekommt, Werbung (sogenannte Google Ads), welche ein kleines Symbol namens "Anzeige"neben dem Link haben.

SERP Google Werbung

Für diese Werbeanzeigen zahlt der Werbetreibende pro Klick einen Betrag.

Der Durchschnittsbetrag für einen Klick (sogenannter CPC = Cost per Click) ist laut OMP Tool ganze 2€. Das ist mehr als 6 Mal so viel wie der durchschnittliche CPC von Facebook, welcher laut Horizon bei 32 Cent liegt. 

Damit gehören Google Ads zu den hochpreisigen Orten, um Werbung im Internet zu schalten. Das hängt mit dem Fakt zusammen, dass die Zielgruppe von Google viel eher kaufbereit ist als bei Facebook und Co.

Um seine eigene Ad bei Google zu schalten, muss man einfach in das Ad-Center von Google gehen und kann relativ einfach eine Anzeige erstellen. Eine erfolgreiche Ad-Kampagne bedarf jedoch eine relativ tiefgründige Expertise, weshalb es dafür sogenannte SEA-Spezialisten (SEA = Search Engine Ads) gibt. 


Featured Snippets

Noch vor der Werbung auf dem sogenannten Platz 0 können sogenannte Featured Snippets kommen.


Featured Snippet = Einen Ausschnitt, welchen Google als schnelle Antwort präsentiert.


Dieses Featured Snippet nimmt viele Gestalten an je nach Suchanfrage zum Beispiel:

  • Ein Textausschnitt
  • Eine Definition
  • Eine nicht nummerierte Liste
  • Eine nummerierte Liste
  • Ein Zitat
  • Ein Bild mit einem Text
  • Eine Biographie
  • etc.

Google weitet diese Variationen sehr häufig aus und es gibt eine große Bandbreite davon.

Hier ein Beispiel einer Liste, als Featured Snippet:

Listen bei Google Snippets SERP


Ein wichtiger Faktor für die SERPs und auch für die Featured Snippets sind die strukturierten Daten, welche es Google und Co vereinfachen die Daten auf einer Webseite richtig zu lesen und damit auch zuzuordnen.

Da sich Google mit strukturierten Daten sicherer ist über die Eigenschaften und Inhalte einer Webseite, hat diese Webseite grundsätzlich auch höhere Chancen in die Featured Snippets zu gelangen und somit den begehrten Platz 0 zu sichern.



Organische Suchergebnisse

Danach kommen meistens erst die sogenannten organischen Suchergebnisse.

Organisch bedeutet, dass kein Geld für die Platzierung bezahlt wurde und Google von sich aus "denkt", dass dieses Ergebnis auf dieser Position ranken soll. Je wichtiger oder besser Google das Ergebnis einschätzt, desto weiter oben wird sich das Ergebnis in den organischen Suchergebnissen befinden.

Die organischen Suchergebnisse selbst können dann sogenannte Rich Snippets besitzen.

Organische Suchergebnisse mit Rich Snippets


Diese Rich Snippets steigern die Klickrate enorm, weshalb diese immer wichtiger werden.

Wie du selbst Rich Snippets einbauen kannst, erfährst du hier.

Um selbst in den organischen Suchergebnissen weit oben zu erscheinen, gibt es die Praktiken von SEO (Suchmaschinenoptimierung).

Die oberen Plätze sind sehr begehrt, da man dort den Großteil der Klicks bekommt und damit auch am Ende den Großteil der Kundschaft, wenn man danach alle Hebel richtig bedient.

Dieses Feld alleine ist so komplex, dass es dafür auch sogenannte SEO-Experten gibt.

(Zu welchen ich mich dazuzähle.)

Laut der etablierten Webseite backlinko gibt es insgesamt ganze 200 Rankingfaktoren, welche entscheiden, welche Webseite auf welchem Platz bei den organischen Suchergebnissen landet.

Der Wert eine hohen Positionierung bei den organischen Suchergebnissen rechtfertigt jedoch den Aufwand dafür allemal.

Wer auf Platz 1 (organisch) rankt bei einem Keyword mit 1.500 Suchanfragen im Monat, der bekommt laut backlinko 31,7% der Klicks und damit ganze 475 Besucher pro Monat von einem Keyword alleine. 

Bei einem Durchschnittswert von 2€ pro Klick ergibt das einen Wert von 951€ jeden Monat und innerhalb eines Jahres dann 11.412€.

Das nur bei einem einzigen Keyword mit einem mittelgroßen Suchvolumen.

Nicht umsonst ist SEO für die organischen Suchergebnisse bei nahezu jeder Webseite heutzutage Standard & der Wettbewerb wird immer härter.


Google Bilder oder YouTube Videos

Ein weiterer Bestandteil der SERPs sind recht häufig Bilder, welche von Google ausgewählt werden oder auch YouTube-Videos, welche passend zum Thema präsentiert werden.

Das variiert sehr stark nach Suchbegriff. Google versteht seit RankBrain recht gut, was der User möchte und je nachdem, ob der Nutzer eher ein Video, Bild oder Textartikel möchte, sendet Google das beste Ergebnis der Suchanfrage ganz nach oben.

YouTube Suchergebnisse bei Google SERP


Ähnliche Fragen Sektion

Recht weit oben gibt es auch immer öfter die sogenannten "Ähnlichen Fragen", welche sich ausbreiten, sobald man auf eine Frage klickt.

Google sucht sich dafür die passenden Lösungen auf den Webseiten heraus.

Aehnliche Fragen in Google SERP

Ein FAQ MarkUp hilft dir dort zu erscheinen aber auch einfach eine saubere KeywordRecherche mit Tools wie AnswerThePublic kann einem einen Platz dort sichern.

Des Weiteren ist dieser Part auch eine sehr gute Inspiration für den eigenen Webseiten-Inhalt. Denn wenn Google diese Fragen weit oben anzeigt, dann bedeutet das, dass Nutzer die Antworten dazu regelmäßig suchen und du solltest du diese Fragen auch mit aufnehmen, insofern du für dieses Keyword ranken möchtest.


Verwandte Suchanfragen

Bevor man zur nächsten Seite weitergeleitet wird, gibt es noch die "Verwandte Suchanfragen", welche einem von Google präsentiert werden.

Diese sind auch sehr hilfreich bei der Artikelplanung, denn Google zeigt einem dort interessante Long-Tail-Keywords auf, welche womöglich eine niedrigere Keywordschwierigkeit besitzen.

Verwandte Suchanfragen


Verteilung der Klicks bei den SERPs

Eine Frage, welche häufig mit den Positionierungen der SERPs aufkommt, ist die Klickverteilung je nach Position bei den SERPs.

Die deutsche Sistrix GmbH hat eine Studie dazu veröffentlicht, nach welcher die prozentuale Klickverteilung der Positionierungen auf Google wie folgt aussehen:

CTR von SERPs in Google Sistrix


Quelle: Sistrix 

Bedeutet, dass 34,2% der Suchenden auf den Platz 1 klicken und nur noch 17,1% auf den Platz 2.

Auch wenn man dazu sagen muss, dass generelle Aussagen dazu nicht immer valide sind, denn die Klickrate (kurz CTR) variiert zwischen 13.7% und 46.9% auf dem Platz 1 je nach Suchintention, SERP Design und weiteren Faktoren.

Als Richtlinie sind diese Werte trotzdem sehr hilfreich.


Zusammenfassung

Die SERPs sind der Ort, um den es sich im SEO immer dreht. Jeder möchte ganz oben landen und den maximalen Traffic auf seiner Webseite generieren. Die Rankingfaktoren von Google sind vielfältig und es wird immer schwerer als neue Webseite den Einstieg zu schaffen.

Wer eine gute Keywordrecherche durchführt, kann es aber noch schaffen vor allem in deutschen Markt einfache Themen zu finden, für welche sich ein Ranking in den SERPs rentiert.

Den Aufbau der SERPs sollte man dafür aber unbedingt verstanden und im Hinterkopf behalten, damit man Google genau das Resultat gibt, welches dem Leser am besten weiterhilft.

Das Featured Snippet und die strukturierten Daten werden immer wichtiger bei den SERPs und können einfach nicht mehr ignoriert werden, wenn man ganz oben mitspielen möchte.



]]>
https://patrickbreitenstein.com/seo-lexikon/serp/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico
CMS - Content Management System https://patrickbreitenstein.com/seo-lexikon/cms/ https://patrickbreitenstein.com/seo-lexikon/cms/#comments Tue, 30 Mar 2021 02:22:00 +0000 C https://patrickbreitenstein.com/seo-lexikon/cms/ Weiterlesen

]]>
Ein CMS ist ein Content Management System und auf Deutsch heißt das: Inhaltsverwaltungssystem

Im Prinzip ist das also die Software, mit welcher du deine Inhalte deiner Webseite verwaltest.

Es ist sehr untypisch, dass man heutzutage nämlich noch eine Webseite selbst von null auf mit HTML und CSS schreibt.



Was macht ein CMS genau?

Etwas genauer technisch beschrieben funktioniert das folgendermaßen:

Du hast einen Server, auf welchem Dateien liegen im HTML Format mit CSS und JavaScript zusammen.

Dein CMS kann diese Dateien bearbeiten, neue Dateien hinzufügen, Dateien verschieben usw.

Dein CMS kann also deine komplette Webseite, welche auf deinem Server liegt, gestalten mit deiner Hilfe und in vielen Fällen ganz ohne, dass du jemals den Code dahinter siehst.

Mit Chimpify eine Webseite erstellen



Wer braucht ein CMS?

Jeder, der eine Webseite haben möchte / hat und sich nicht mit Coding auskennt und das auch nicht lernen möchte.

Der einzige Fall, in welchem sich ein CMS für eine Webseite nicht wirklich lohnt, ist, wenn es sich um eine große Kooperation handelt. Diese legen sich in der Regel nicht auf ein CMS fest, sondern bauen ihr eigenes internes System, damit diese die maximale Freiheit behalten können.

Sonst bietet sich eigentlich für jeden Webseitenbetreiber ein CMS an, alleine aufgrund der Tatsache, dass man sich Zeit spart, wenn man nicht alles in HTML und CSS verfassen muss.


Welche Kriterien muss ein gutes CMS erfüllen?

Der Sinn und Zweck eines CMS ist es einem die Arbeit an einer Webseite und deren Inhalt zu vereinfachen. Diese Kernkompetenz muss also gegeben sein.

Die wichtigsten Kriterien für ein gutes CMS sind:

  • Einfache Bedienung auch für Anfänger
  • Schnelle Nutzeroberfläche
  • Übersichtliche Strukturierung
  • Genügend kreativer Freiraum (intuitiver Designprozess)
  • Hilfreiche Werkzeuge und Tools müssen vorhanden sein
  • Organisation von großen Daten muss machbar sein
  • Webseite muss für die Suchmaschinen optimiert / optimierbar sein
  • Einfaches Kopieren und Duplizieren und nachträgliches Bearbeiten von Inhalten
  • Schreib-Editor muss umfangreich & trotzdem einfach sein
  • CMS darf die Webseite nicht allzu sehr verlangsamen


Wenn ein CMS diese Kriterien erfüllt, dann hat man meistens eine gute Wahl. Natürlich kommt der Preis des CMS auch noch dazu, jedoch sind dort die Unterschiede von Anbieter zu Anbieter nicht sonderlich groß.

Das Problem ist oft nur, dass man diese Kriterien oft schwer von Anfang an erkennt und sich selbst recht lange mit einem CMS und dessen Konkurrenten auseinandersetzen muss, um eine qualifizierte Entscheidung zu treffen.

Dafür gibt es den nächsten Abschnitt.


Welche guten CMS-Anbieter gibt es?

Über 60% der CMS laufen über WordPress (Quelle: Statista), welches das mit Abstand bekannteste CMS der Welt ist.

WordPress CMS


WordPress erlaubt es einem zusammen mit einem Webseiten-Builder wie z.B. Elementor oder Divi eine Webseite ohne Code-Kenntnisse zu bauen.

Man kann mit WordPress wirklich sehr beeindruckende Webseiten bauen, welche auch sehr professionell aussehen, ich habe jedoch andere Erfahrungen gemacht und habe mein CMS Mitte 2020 zu Chimpify gewechselt.

Chimpify ist das deutsche Äquivalent zu WordPress mit einigen starken Vorteilen gegenüber dem Amerikaner.

Kurz gesagt, kann man mit Chimpify einfacher & schneller auf Google Co ranken, weshalb dieses deutsche CMS mein klarer Favorit ist.

Weitere bekannte und etablierte CMS-Anbieter sind:


Für Online-Shops bieten sich folgende CMS-Anbieter an:

Das perfekte CMS kann von Business zu Business unterschiedlich sein. 

In der Regel wird sich für WordPress entschieden, da dieser Anbieter der Marktführer ist und das ist auch in einigen Fällen die richtige Entscheidung, aber in vielen Fällen ist ein anderer Anbieter, welcher weniger komplex und effizienter ist, die bessere Wahl.

Warum ich von WordPress zu Chimpify gewechselt bin, erläutere ich hier detailliert.

Zusammenfassung

Ein CMS ist heutzutage nahezu Pflicht für jeden Webseitenbetreiber, denn auch, wenn man IT-Kenntnisse hat, spart man sich Unmengen an Zeit mit diesen Systemen.

Man muss nur in seltenen Fällen den HTML- bzw. CSS-Code noch selbst bedienen und kann sich somit auf die kreative Seite fokussieren und zum Beispiel eine Content Marketing Strategie für die Webseite über den Blog erstellen und ausführen.

Welcher der besten Anbieter ist, ist schon lange ein Diskussionsthema in der Community. Fakt ist, dass diese Frage für Firma zu Firma unterschiedlich ist und für große Kooperationen lohnt es sich zum Beispiel gar nicht.


]]>
https://patrickbreitenstein.com/seo-lexikon/cms/feed/ 0 https://patrickbreitenstein.com/favicon.ico https://patrickbreitenstein.com/favicon.ico