You are viewing this post: Best googlebot image 1.0 New Update
Sie sehen gerade das Thema googlebot image 1.0
百度一下,你就知道 – 110.242.68.4 New
全球领先的中文搜索引擎、致力于让网民更便捷地获取信息,找到所求。百度超过千亿的中文网页数据库,可以瞬间找到相关 …
Come testare il file robots txt con Search Console Update
Neue Informationen zum Thema googlebot image 1.0
#iscriviti a Host Academy, più di 1000 video lezioni a solo €49 all’anno, usa il codice coupon: YOUTB01
https://host-academy.it/abbonamento-annuale?coupon_code=YOUTB01
Hai bisogno di un Hosting veloce e sicuro? Scopri le nostre offerte su https://host.it
googlebot image 1.0 Einige Bilder im Thema

The Website Migration Guide: SEO Strategy, Process … – Moz New
07/03/2018 · Building an image XML sitemap will help, but you also need to make sure that Googlebot can reach the site’s images when crawling the site. The tricky part with image indexing is that both the web page where an image appears on as well as the image file itself have to get indexed. Site performance review
Read more
Die Ansichten des Autors sind ausschließlich seine eigenen (mit Ausnahme des unwahrscheinlichen Falls einer Hypnose) und spiegeln möglicherweise nicht immer die Ansichten von Moz wider
Was ist eine Site-Migration?
Eine Website-Migration ist ein Begriff, der von SEO-Experten allgemein verwendet wird, um jedes Ereignis zu beschreiben, bei dem eine Website wesentliche Änderungen in Bereichen erfährt, die die Sichtbarkeit in Suchmaschinen erheblich beeinflussen können – typischerweise Änderungen am Standort, der Plattform, der Struktur, dem Inhalt, dem Design oder der UX der Website
Googles Dokumentation zu Onsite-Migrationen behandelt sie nicht sehr ausführlich und spielt die Tatsache herunter, dass sie so oft zu erheblichen Traffic- und Umsatzverlusten führen, die von einigen Wochen bis zu mehreren Monaten dauern können – je nachdem, wie stark die Suchmaschinen-Ranking-Signale sind betroffen waren, sowie wie lange es dauern kann, bis das betroffene Unternehmen einen erfolgreichen Wiederherstellungsplan einführt
Schnellzugriffslinks
Checkliste für die Site-Migration (8-seitiges PDF)
Beispiele für Site-Migrationen
Site-Migrationstypen
Häufige Fallstricke bei der Site-Migration
Site-Migrationsprozess
1
Umfang & Planung
2
Vorbereitung vor dem Start
3
Pre-Launch-Tests
4
Tagesaktionen starten
5
Post-Launch-Tests
6
Leistungsbeurteilung
Anhang: Nützliche Tools
Beispiele für Site-Migrationen
Im folgenden Abschnitt wird erläutert, wie sowohl erfolgreiche als auch erfolglose Site-Migrationen aussehen, und erklärt, warum es zu 100 % möglich ist, aus einer Site-Migration herauszukommen, ohne erhebliche Verluste zu erleiden
Den Mythos „erwarteter Traffic-Rückgang“ entlarven
Jeder, der an einer Site-Migration beteiligt war, hat wahrscheinlich die weit verbreitete Theorie gehört, dass dies de facto zu Traffic- und Umsatzverlusten führen wird
Obwohl diese Behauptung für einige sehr spezifische Fälle (z
B
den Wechsel von einer etablierten Domäne zu einer brandneuen) etwas zutrifft, sollte sie nicht als Evangelium behandelt werden
Es ist durchaus möglich, ohne Traffic- oder Umsatzverlust zu migrieren; Sie können sich sogar direkt nach dem Start einer überarbeiteten Website über ein erhebliches Wachstum freuen
Dies kann jedoch nur erreicht werden, wenn jeder einzelne Schritt gut geplant und ausgeführt wurde
Beispiele für erfolglose Site-Migrationen
Die folgende Grafik zeigt die verpfuschte Website-Migration eines großen britischen Einzelhändlers, bei der die Website zwei Wochen nach dem Wechsel von HTTP zu HTTPS 35 % ihrer Sichtbarkeit verlor
Sie brauchten etwa sechs Monate, um sich vollständig zu erholen, was erhebliche Auswirkungen auf die Einnahmen aus der organischen Suche gehabt haben muss
Dies ist ein typisches Beispiel für eine schlechte Site-Migration, die möglicherweise durch schlechte Planung oder Implementierung verursacht wurde
Eine Wiederherstellung ist jedoch möglicherweise nicht immer möglich
Das folgende Sichtbarkeitsdiagramm stammt von einem anderen großen britischen Einzelhändler, bei dem die Umstellung von HTTP auf HTTPS zu einem dauerhaften Sichtbarkeitsverlust von 20 % führte
Tatsächlich ist es durchaus möglich, von HTTP auf HTTPS zu migrieren, ohne so viel Datenverkehr zu verlieren und so lange Zeitraum, abgesehen von den ersten paar Wochen, wo es eine hohe Volatilität gibt, wenn Google die neuen URLs entdeckt und die Suchergebnisse aktualisiert
Beispiele erfolgreicher Site-Migrationen
Wie sieht eine erfolgreiche Site-Migration aus? Dies hängt weitgehend von der Art der Site-Migration, den Zielen und den KPIs ab (mehr Details später)
Aber in den meisten Fällen weist eine erfolgreiche Site-Migration mindestens eines der folgenden Merkmale auf:
Minimaler Sichtbarkeitsverlust in den ersten Wochen (kurzfristiges Ziel) Visibilitätswachstum danach – je nach Art der Migration (langfristiges Ziel)
Der folgende Sichtbarkeitsbericht stammt von einer HTTP-zu-HTTPS-Site-Migration, die auch von erheblichen Verbesserungen der Seitenladezeiten der Site begleitet wurde
Der folgende Sichtbarkeitsbericht stammt von einer vollständigen Site-Überholung, an der ich glücklicherweise mehrere Monate beteiligt war im Vorfeld und unterstützt während der Strategie-, Planungs- und Testphasen, die alle gleichermaßen wichtig waren.
Wie es bei Migrationsprojekten vor Ort üblich ist, musste der Starttermin einige Male verschoben werden, da die Risiken eines vorzeitigen Starts der neuen Website und der vollständigen Behebung größerer technischer Hindernisse bestanden
Aber wie Sie auf dem Sichtbarkeitsdiagramm unten sehen können, hat sich das Warten gelohnt
Die organische Sichtbarkeit ging nicht nur nicht zurück (wie die meisten normalerweise erwarten würden), sondern begann sogar von der ersten Woche an zu wachsen
Das Sichtbarkeitswachstum erreichte einen Monat nach der Migration 60 %, während das organische Traffic-Wachstum zwei Monate nach dem Start 80 % überstieg
.
Dies war eine ziemlich komplexe Migration, da die neue Website neu gestaltet und von Grund auf auf einer neuen Plattform mit einer verbesserten Website-Taxonomie erstellt wurde, die neue Zielseiten, eine aktualisierte URL-Struktur, viele Weiterleitungen zum Erhalt des Link-Eigentums sowie a Umstellung von HTTP auf HTTPS.
Im Allgemeinen kann es schwierig sein, zu viele Änderungen gleichzeitig einzuführen, denn wenn etwas schief geht, werden Sie Schwierigkeiten haben, herauszufinden, was genau schuld ist
Gleichzeitig ist es jedoch auch nicht ideal, größere Änderungen für einen späteren Zeitpunkt aufzuheben, da dies mehr Ressourcen erfordert
Wenn Sie wissen, was Sie tun, kann es sehr kosteneffektiv sein, mehrere positive Änderungen auf einmal vorzunehmen wichtigsten Site-Migrationstypen und erklären die Hauptgründe, warum so viele Site-Migrationen fehlschlagen.
Site-Migrationstypen
Es gibt viele Site-Migrationstypen
Es hängt alles von der Art der Änderungen ab, die stattfinden
Die Dokumentation von Google behandelt hauptsächlich Migrationen mit Standortänderungen, die wie folgt kategorisiert werden:
Site verschiebt sich mit URL-Änderungen
Site verschiebt sich ohne URL-Änderungen
Standortverschiebungsmigrationen
Diese treten normalerweise auf, wenn eine Website aus einem der folgenden Gründe zu einer anderen URL wechselt:
Protokolländerung
Ein klassisches Beispiel ist die Migration von HTTP zu HTTPS
Änderung der Subdomain oder des Unterordners
Sehr verbreitet in der internationalen SEO, wenn ein Unternehmen beschließt, eine oder mehrere ccTLDs in Subdomains oder Unterordner zu verschieben
Ein weiteres häufiges Beispiel ist, dass eine mobile Website, die sich auf einer separaten Subdomain oder einem separaten Unterordner befindet, responsiv wird und sowohl Desktop- als auch mobile URLs vereinheitlicht werden
Änderung des Domainnamens
Tritt häufig auf, wenn ein Unternehmen ein Rebranding durchführt und von einer Domäne zu einer anderen wechseln muss
Änderung der Top-Level-Domain
Dies ist üblich, wenn ein Unternehmen beschließt, internationale Websites zu starten und von einer ccTLD (Ländercode-Top-Level-Domain) zu einer gTLD (generische Top-Level-Domain) oder umgekehrt wechseln muss, z
Wechsel von. co.uk zu. com oder Wechsel von. com zu. co.uk und so weiter
Änderungen der Site-Struktur
Dies sind Änderungen an der Site-Architektur, die sich normalerweise auf die interne Verlinkung und URL-Struktur der Site auswirken
Andere Arten von Migrationen
Es gibt andere Arten der Migration, die durch Änderungen am Inhalt, der Struktur, dem Design oder der Plattform der Website ausgelöst werden
Replatforming
Dies ist der Fall, wenn eine Website von einer Plattform/CMS auf eine andere umgezogen wird, z
Migration von WordPress zu Magento oder einfach ein Upgrade auf die neueste Plattformversion
Ein Plattformwechsel kann in einigen Fällen auch zu Design- und URL-Änderungen aufgrund technischer Einschränkungen führen, die häufig beim Plattformwechsel auftreten
Aus diesem Grund führen Re-Platforming-Migrationen selten zu einer Website, die genauso aussieht wie die vorherige
Inhaltsmigrationen
Größere Inhaltsänderungen wie das Umschreiben von Inhalten, die Konsolidierung von Inhalten oder die Bereinigung von Inhalten können je nach Ausmaß große Auswirkungen auf die Sichtbarkeit einer Website in der organischen Suche haben
Diese Änderungen können sich oft auf die Taxonomie, Navigation und interne Verlinkung der Website auswirken
Änderungen bei der Einrichtung von Mobilgeräten
Bei so vielen verfügbaren Optionen für die mobile Einrichtung einer Website kann das Verschieben, Aktivieren der App-Indexierung, Erstellen einer AMP-Website oder Erstellen einer PWA-Website auch als teilweise Website-Migration betrachtet werden, insbesondere wenn eine vorhandene mobile Website durch eine App, AMP, ersetzt wird
oder PWA
Strukturelle Veränderungen
Diese werden häufig durch größere Änderungen an der Taxonomie der Website verursacht, die sich auf die Website-Navigation, die interne Verlinkung und die Benutzerwege auswirken
Website-Neugestaltungen
Diese können von größeren Designänderungen im Aussehen und Verhalten bis hin zu einer vollständigen Website-Überarbeitung variieren, die auch erhebliche Medien-, Code- und Textänderungen umfassen kann
Hybride Migrationen
Darüber hinaus gibt es mehrere hybride Migrationstypen, die praktisch beliebig kombiniert werden können
Je mehr Änderungen gleichzeitig eingeführt werden, desto höher sind die Komplexität und die Risiken
Auch wenn zu viele Änderungen gleichzeitig das Risiko erhöhen, dass etwas schief geht, kann es aus Ressourcensicht kostengünstiger sein, wenn die Migration sehr gut geplant und durchgeführt wird
Häufige Fallstricke bei der Standortmigration
Obwohl jede Site-Migration anders ist, gibt es einige gemeinsame Themen hinter den typischsten Site-Migrations-Katastrophen, wobei die größten die folgenden sind:
Schlechte Strategie
Einige Website-Migrationen sind zum Scheitern verurteilt, lange bevor die neue Website gestartet wird
Eine Strategie, die auf unklaren und unrealistischen Zielen aufbaut, bringt viel weniger Erfolg
Die Festlegung messbarer Ziele ist unerlässlich, um die Auswirkungen der Migration nach der Einführung zu messen
Bei den meisten Site-Migrationen sollte das Hauptziel die Beibehaltung des aktuellen Traffic- und Umsatzniveaus der Site sein
In bestimmten Fällen könnte die Messlatte höher gelegt werden, aber im Allgemeinen sollte die Antizipation oder Prognose von Wachstum ein sekundäres Ziel sein
Dies hilft, unrealistische Erwartungen zu vermeiden
Schlechte Planung
Wenn Sie so früh wie möglich einen detaillierten Projektplan erstellen, können Sie Verzögerungen vermeiden
Berücksichtigen Sie zusätzliche Zeit und Ressourcen, um mit eventuell auftretenden unvorhergesehenen Umständen fertig zu werden
Egal wie gut durchdacht und detailliert Ihr Plan ist, es ist höchst unwahrscheinlich, dass alles wie erwartet verläuft
Seien Sie flexibel mit Ihrem Plan und akzeptieren Sie die Tatsache, dass es mit ziemlicher Sicherheit zu Verzögerungen kommen wird
Stellen Sie alle Abhängigkeiten dar und machen Sie alle Beteiligten darauf aufmerksam
Planen Sie nicht, die Website in der Nähe Ihrer saisonalen Spitzenzeiten zu starten, denn wenn etwas schief geht, haben Sie nicht genug Zeit, um die Probleme zu beheben
Einzelhändler sollten es beispielsweise vermeiden, eine Website kurz vor September/Oktober zu starten, um die geschäftige Vorweihnachtszeit nicht zu gefährden
In diesem Fall wäre es viel klüger, es in den ruhigeren Sommermonaten zu starten
Mangel an Ressourcen
Bevor Sie sich zu einem Site-Migrationsprojekt verpflichten, schätzen Sie den Zeit- und Arbeitsaufwand ein, der erforderlich ist, um es zum Erfolg zu führen
Wenn Ihr Budget begrenzt ist, rufen Sie an, ob es sich lohnt, eine Migration durchzuführen, die wahrscheinlich die festgelegten Ziele nicht erreichen und zu Umsatzeinbußen führen wird
Versuchen Sie als Faustregel, einen Puffer von mindestens einzuplanen 20 % zusätzliche Ressourcen, als Sie ursprünglich für das Projekt erwarten
Dieser zusätzliche Puffer ermöglicht es Ihnen später, alle Probleme schnell zu beheben, sobald sie auftreten, ohne den Erfolg zu gefährden
Wenn Ihre Ressourcen zu knapp sind oder Sie zu diesem frühen Zeitpunkt anfangen, Abstriche zu machen, ist die Site-Migration gefährdet
Fehlende SEO/UX-Beratung
Wenn Änderungen auf einer Website stattfinden, muss jede einzelne Entscheidung sowohl aus UX- als auch aus SEO-Sicht gewichtet werden
Beispielsweise kann das Entfernen großer Mengen von Inhalten oder Links zur Verbesserung der UX die Fähigkeit der Website beeinträchtigen, auf geschäftskritische Keywords abzuzielen, oder zu Crawling- und Indexierungsproblemen führen
In beiden Fällen könnten solche Änderungen die Sichtbarkeit der Website in der organischen Suche beeinträchtigen
Auf der anderen Seite kann sich zu viel Text und zu wenige Bilder negativ auf die Benutzerinteraktion auswirken und die Conversions der Website beeinträchtigen
Um Risiken zu vermeiden, beauftragen Sie erfahrene SEO- und UX-Berater, damit sie die möglichen Folgen jeder einzelnen Änderung besprechen können wichtige geschäftliche Stakeholder, die die geschäftlichen Feinheiten besser verstehen als jeder andere
Die Vor- und Nachteile jeder Option müssen abgewogen werden, bevor eine Entscheidung getroffen wird
Spätes Engagement
Site-Migrationen können sich über mehrere Monate erstrecken, erfordern eine gute Planung und genügend Zeit zum Testen
Es ist sehr riskant, zu spät professionelle Unterstützung zu suchen, da wichtige Schritte möglicherweise ausgelassen wurden
Fehlende Tests
Neben einer großartigen Strategie und einem durchdachten Plan sollten Sie vor dem Start der Website etwas Zeit und Mühe für gründliche Tests aufwenden
Es ist viel besser, den Start zu verzögern, wenn beim Testen kritische Probleme festgestellt wurden, anstatt eine lückenhafte Implementierung in die Produktion zu überstürzen
Es versteht sich von selbst, dass Sie keine Website starten sollten, wenn sie nicht sowohl von erfahrenen SEO- als auch von UX-Teams getestet wurde
Auch die Liebe zum Detail ist sehr wichtig
Stellen Sie sicher, dass sich die Entwickler der Risiken bewusst sind, die mit einer schlechten Implementierung verbunden sind
Die Aufklärung der Entwickler über die direkten Auswirkungen ihrer Arbeit auf den Traffic einer Website (und damit auf den Umsatz) kann einen großen Unterschied machen
Langsame Reaktion auf Fehlerbehebung
Es wird immer Fehler geben, die behoben werden müssen, sobald die neue Seite live geht
Einige Fehler sind jedoch wichtiger als andere und müssen möglicherweise sofort behoben werden
Wenn Sie beispielsweise eine neue Website starten, nur um festzustellen, dass Suchmaschinen-Spider Probleme beim Crawlen und Indizieren des Inhalts der Website haben, wäre eine sofortige Lösung erforderlich
Eine langsame Reaktion auf große technische Hindernisse kann manchmal katastrophal sein und es kann lange dauern, bis man sich davon erholt
Unterschätzung des Ausmaßes
Geschäftsbeteiligte gehen oft nicht davon aus, dass Standortmigrationen so zeitaufwändig und ressourcenintensiv sind
Es ist nicht ungewöhnlich, dass hochrangige Interessengruppen verlangen, dass die neue Website am geplanten Tag gestartet wird, unabhängig davon, ob sie zu 100 % fertig ist oder nicht
Das Motto „Lasst uns so schnell wie möglich starten und später reparieren“ ist ein klassischer Fehler
Was den meisten Interessengruppen nicht bewusst ist, ist, dass es nur wenige Tage dauern kann, bis die organische Suche sichtbar ist, aber die Wiederherstellung kann mehrere Monate dauern
Es liegt in der Verantwortung des Beraters und Projektmanagers, Kunden zu schulen und sie durch all die anderen zu führen Phasen und Szenarien und erklären Sie, was jedes einzelne im Detail beschreibt
Unternehmensbeteiligte sind dann in der Lage, fundiertere Entscheidungen zu treffen, und ihre Erwartungen sollten einfacher zu handhaben sein
Site-Migrationsprozess
Der Site-Migrationsprozess kann in sechs wesentliche Hauptphasen unterteilt werden
Sie sind alle gleich wichtig und das Überspringen einer der folgenden Aufgaben könnte den Erfolg der Migration in unterschiedlichem Maße verhindern
Phase 1: Umfang und Planung
Arbeiten Sie außerhalb des Projektumfangs
Unabhängig von den Gründen für ein Site-Migrationsprojekt müssen Sie sich von Anfang an über die Ziele im Klaren sein, da diese dazu beitragen, Erwartungen festzulegen und zu verwalten
Das Verschieben einer Website von HTTP auf HTTPS unterscheidet sich stark von einer vollständigen Website-Überholung, daher sollten die beiden unterschiedliche Ziele haben
In erster Linie sollte das Ziel darin bestehen, das Traffic-Niveau der Website beizubehalten, während Sie in zweiter Linie potenziell auf Wachstum abzielen könnten
Eine Website-Migration ist eine großartige Gelegenheit, um alte Probleme anzugehen
Es sollte sehr kosteneffektiv sein, so viele davon wie möglich in den Projektumfang einzubeziehen, da die Behebung dieser Probleme nach dem Start erheblich mehr Ressourcen erfordern wird
Identifizieren Sie jedoch in jedem Fall die kritischsten Aspekte für den Erfolg des Projekts
Identifizieren Sie alle Risiken, die sich negativ auf die Sichtbarkeit der Website auswirken könnten, und überlegen Sie, welche Vorkehrungen zu treffen sind
Bereiten Sie idealerweise einige Prognoseszenarien vor, die auf den verschiedenen Risiken und Wachstumschancen basieren
Es versteht sich von selbst, dass die Prognoseszenarien von erfahrenen Standortmigrationsberatern erstellt werden sollten.
Die Einbeziehung so vieler Stakeholder wie möglich in diesem frühen Stadium wird Ihnen helfen, ein tieferes Verständnis für die größten Herausforderungen und Chancen in allen Bereichen zu erlangen
Bitten Sie Ihre Content-, SEO-, UX- und Analytics-Teams um Feedback und stellen Sie eine Liste der größten Probleme und Chancen zusammen
Sie müssen dann herausfinden, wie hoch der potenzielle ROI wäre, wenn Sie sich mit jedem dieser Punkte befassen
Wählen Sie schließlich eine der verfügbaren Optionen basierend auf Ihren Zielen und verfügbaren Ressourcen aus, die Ihre Site-Migrationsstrategie bilden werden
Sie sollten nun eine priorisierte Liste von Aktivitäten haben, von denen erwartet wird, dass sie einen positiven ROI haben, wenn sie implementiert werden
Diese sollten dann mit allen Beteiligten kommuniziert und besprochen werden, damit Sie von Anfang an realistische Ziele setzen, sich auf das Projekt und den Umfang einigen und die richtigen Erwartungen setzen
Erstellen Sie den Projektplan
Die Planung ist ebenso wichtig, da Standortmigrationen oft sehr komplexe Projekte sein können, die sich leicht über mehrere Monate erstrecken können
Während der Planungsphase benötigt jede Aufgabe einen Eigentümer (z
B
SEO-Berater, UX-Berater, Inhaltsredakteur, Webentwickler) und ein voraussichtliches Lieferdatum
Jegliche Abhängigkeiten sollten identifiziert und in den Projektplan aufgenommen werden, damit jeder weiß, welche Aktivitäten aufgrund der Abhängigkeit von anderen nicht ausgeführt werden können
Beispielsweise können die Redirects erst getestet werden, wenn das Redirect-Mapping abgeschlossen und die Redirects beim Staging implementiert wurden
Der Projektplan sollte so früh wie möglich mit allen Beteiligten geteilt werden, damit genügend Zeit für Diskussionen und Klärungen bleibt
Jede Aktivität muss sehr detailliert beschrieben werden, damit die Beteiligten wissen, was jede Aufgabe mit sich bringen würde
Es versteht sich von selbst, dass ein tadelloses Projektmanagement notwendig ist, um die erforderlichen Aktivitäten termingerecht zu organisieren und durchzuführen
Ein entscheidender Teil des Projektplans ist die richtige Festlegung des voraussichtlichen Starttermins
Idealerweise sollte die neue Website zu einer Zeit gestartet werden, in der der Verkehr gering ist
Vermeiden Sie es erneut, vor oder während einer Spitzenzeit zu starten, da die Folgen verheerend sein könnten, wenn die Dinge nicht wie erwartet laufen
Dabei ist zu beachten, dass Standortmigrationen nie ganz nach Plan verlaufen und ein gewisses Maß an Flexibilität erforderlich ist
Phase 2: Vorbereitung vor dem Start
Dazu gehören alle Aktivitäten, die durchgeführt werden müssen, während sich die neue Website noch in der Entwicklung befindet
Zu diesem Zeitpunkt sollten die SEO-Anforderungen der neuen Website bereits erfasst sein
Sie sollten mit den Designern und Informationsarchitekten zusammenarbeiten und Feedback zu Prototypen und Wireframes geben, lange bevor die neue Site in einer Staging-Umgebung verfügbar wird
Wireframes-Überprüfung
Überprüfen Sie die Prototypen oder Wireframes der neuen Website, bevor Sie mit der Entwicklung beginnen
Die Überprüfung der Hauptvorlagen der neuen Website kann dazu beitragen, sowohl SEO- als auch UX-Probleme frühzeitig zu erkennen
Beispielsweise stellen Sie möglicherweise fest, dass große Teile des Inhalts von den Kategorieseiten entfernt wurden, was sofort gekennzeichnet werden sollte
Oder Sie stellen möglicherweise fest, dass einige stark frequentierte Seiten nicht mehr in der Hauptnavigation angezeigt werden
Alle radikalen Änderungen im Design oder in der Kopie der Seiten sollten gründlich auf potenzielle SEO-Probleme überprüft werden
Erstellung der technischen SEO-Spezifikationen
Nachdem die Prototypen und Wireframes überprüft wurden, bereiten Sie eine detaillierte technische SEO-Spezifikation vor
Das Ziel dieses wichtigen Dokuments ist es, alle wesentlichen SEO-Anforderungen zu erfassen, die Entwickler kennen müssen, bevor sie den Umfang des Projekts in Bezug auf Arbeit und Kosten ausarbeiten
In dieser Phase werden die Budgets abgesegnet; Wenn die SEO-Anforderungen nicht enthalten sind, ist es möglicherweise unmöglich, sie später einzubeziehen
Die technische SEO-Spezifikation muss sehr detailliert und dennoch so geschrieben sein, dass Entwickler die Anforderungen leicht in Maßnahmen umsetzen können
Dies ist kein Dokument, um zu erklären, warum etwas implementiert werden muss, sondern wie es implementiert werden sollte.
Stellen Sie sicher, dass spezifische Anforderungen enthalten sind, die mindestens die folgenden Bereiche abdecken:
URL-Struktur
Metadaten (einschließlich dynamisch generierter Standardwerte)
Strukturierte Daten
Canonicals- und Meta-Roboter-Direktiven
Kopieren & Überschriften
Haupt- und Nebennavigation
Interne Verlinkung (in jeglicher Form)
Seitennummerierung
XML-Sitemap(s)
HTML-Sitemap
Hreflang (wenn es internationale Seiten gibt)
Mobile Einrichtung (einschließlich der App, AMP- oder PWA-Site)
Weiterleitungen
Benutzerdefinierte 404-Seite
JavaScript-, CSS- und Bilddateien
Seitenladezeiten (für Desktop & Mobile)
Die Spezifikation sollte auch Bereiche der CMS-Funktionalität umfassen, die es Benutzern ermöglichen:
Geben Sie benutzerdefinierte URLs an und überschreiben Sie Standard-URLs
Seitentitel aktualisieren
Aktualisieren Sie Meta-Beschreibungen
Aktualisieren Sie alle h1–h6-Überschriften
Fügen Sie das standardmäßige kanonische Tag hinzu oder ändern Sie es
Setzen Sie die Meta-Roboter-Attribute auf index/noindex/follow/nofollow
Fügen Sie den alten Text jedes Bildes hinzu oder bearbeiten Sie ihn
Schließen Sie Open Graph-Felder für Beschreibung, URL, Bild, Typ, Sitename ein
Fügen Sie Twitter Open Graph-Felder für Karte, URL, Titel, Beschreibung und Bild hinzu
Bulk-Upload oder Weiterleitungen ändern
Aktualisieren Sie die robots.txt-Datei
Es ist auch wichtig sicherzustellen, dass bei der Aktualisierung eines bestimmten Attributs (z
B
ein h1) andere Elemente nicht betroffen sind (z
B
der Seitentitel oder etwaige Navigationsmenüs)
Identifizieren von Prioritätsseiten
Eine der größten Herausforderungen bei Website-Migrationen besteht darin, dass der Erfolg weitgehend von der Quantität und Qualität der migrierten Seiten abhängt
Daher ist es sehr wichtig sicherzustellen, dass Sie sich auf die Seiten konzentrieren, die wirklich wichtig sind
Dies sind die Seiten, die den Traffic auf die alte Website gelenkt haben, Seiten mit angesammelten Links, Seiten, die gut konvertiert werden usw
Um dies zu tun, müssen Sie:
Crawlen Sie die alte Website
Identifizieren Sie alle indexierbaren Seiten
Identifizieren Sie Seiten mit der besten Leistung
So crawlen Sie die Legacy-Site
Crawlen Sie die alte Website, damit Sie eine Kopie aller URLs, Seitentitel, Metadaten, Kopfzeilen, Weiterleitungen, defekten Links usw
haben
Stellen Sie unabhängig von der Crawler-Anwendung Ihrer Wahl (siehe Anhang) sicher, dass das Crawlen nicht zu restriktiv ist
Achten Sie genau auf die Einstellungen des Crawlers, bevor Sie die alte Website crawlen, und überlegen Sie, ob Sie Folgendes tun sollten:
Ignorieren Sie robots.txt (falls wichtige Teile versehentlich blockiert werden)
Folgen Sie internen „nofollow“-Links (damit der Crawler mehr Seiten erreicht)
Crawlen Sie alle Subdomains (je nach Umfang)
Außerhalb des Startordners crawlen (je nach Umfang)
Ändern Sie den User-Agent in Googlebot (Desktop)
Ändern Sie den User-Agent in Googlebot (Smartphone)
Profi-Tipp: Bewahren Sie eine Kopie der Crawling-Daten der alten Website (in einer Datei oder in der Cloud) für mehrere Monate nach Abschluss der Migration auf, nur für den Fall, dass Sie jemals Daten der alten Website benötigen, nachdem die neue Website online gegangen ist.
Wie man die indexierbaren Seiten identifiziert
Arbeiten Sie nach Abschluss des Crawlings daran, die indexierten Seiten der alten Website zu identifizieren
Dies sind beliebige HTML-Seiten mit folgenden Merkmalen:
Geben Sie eine 200-Serverantwort zurück
Sie haben entweder kein kanonisches Tag oder eine auf sich selbst verweisende kanonische URL
Haben Sie keinen Meta-Roboter noindex
werden nicht aus der robots.txt-Datei ausgeschlossen
Sind intern von anderen Seiten verlinkt (nicht verwaiste Seiten)
Die indexierbaren Seiten sind die einzigen Seiten, die das Potenzial haben, Traffic auf die Website zu lenken, und müssen daher für die Zwecke Ihrer Website-Migration priorisiert werden
Dies sind die Seiten, die es wert sind, optimiert zu werden (wenn sie auf der neuen Website vorhanden sind) oder umzuleiten (wenn sie auf der neuen Website nicht vorhanden sind)
So identifizieren Sie die leistungsstärksten Seiten
Sobald Sie alle indexierbaren Seiten identifiziert haben, müssen Sie möglicherweise mehr Arbeit leisten, insbesondere wenn die alte Website aus einer großen Anzahl von Seiten besteht und eine Optimierung oder Weiterleitung aller Seiten aufgrund von Zeit-, Ressourcen- oder technischen Einschränkungen nicht möglich ist
Wenn dies der Fall ist, sollten Sie die leistungsstärksten Seiten der alten Website ermitteln
Dies hilft bei der Priorisierung der Seiten, auf die Sie sich in späteren Phasen konzentrieren müssen.
Es wird empfohlen, eine Tabelle mit den folgenden Feldern zu erstellen:
Legacy-URL (nur die indexierbaren aus den Craw-Daten einbeziehen)
Organische Besuche in den letzten 12 Monaten (Analytics)
Umsatz, Conversions und Conversion-Rate während der letzten 12 Monate (Analytics)
Seitenaufrufe während der letzten 12 Monate (Analytics)
Anzahl der Klicks in den letzten 90 Tagen (Search Console)
Am häufigsten verlinkte Seiten (Majestic SEO/Ahrefs)
Mit den oben genannten Informationen an einem Ort ist es jetzt viel einfacher, Ihre wichtigsten Seiten zu identifizieren: diejenigen, die organische Besuche generieren, gut konvertieren, zum Umsatz beitragen, eine große Anzahl von verweisenden Domains haben, die auf sie verlinken, usw
Dies sind die Seiten auf die Sie sich für eine erfolgreiche Website-Migration konzentrieren müssen
Die leistungsstärksten Seiten sollten idealerweise auch auf der neuen Website vorhanden sein
Wenn sie dies aus irgendeinem Grund nicht tun, sollten sie auf die relevanteste Seite umgeleitet werden, damit Benutzer, die sie anfordern, nicht auf 404-Seiten landen und der Linkwert, den sie zuvor hatten, auf der Website verbleibt
Wenn eine dieser Seiten nicht mehr existiert und nicht richtig umgeleitet wird, werden die Rankings und der Traffic Ihrer Website negativ beeinflusst.
Benchmarking
Sobald der Start der neuen Website naht, sollten Sie die Leistung der alten Website bewerten
Benchmarking ist unerlässlich, nicht nur um die Leistung der neuen Website mit der vorherigen zu vergleichen, sondern auch um zu diagnostizieren, welche Bereiche auf der neuen Website unterdurchschnittlich abschneiden, und um diese schnell anzugehen
Keyword-Rang-Tracking
Wenn Sie die Platzierungen der Website nicht häufig verfolgen, sollten Sie dies tun, kurz bevor die neue Website online geht
Andernfalls werden Sie später Schwierigkeiten haben, herauszufinden, ob die Migration reibungslos verlaufen ist oder wo genau etwas schief gelaufen ist
Verschieben Sie dies nicht bis zur letzten Minute, falls etwas schief geht – eine Woche im Voraus wäre der ideale Zeitpunkt
Verbringen Sie etwas Zeit damit, herauszufinden, welche Schlüsselwörter am repräsentativsten für die Sichtbarkeit der Website in der organischen Suche sind, und verfolgen Sie sie über Desktop und Mobilgerät
Da die Überwachung von Tausenden von Head-, Mid- und Long-Tail-Keyword-Kombinationen normalerweise unrealistisch ist, sollten Sie als absolutes Minimum Keywords überwachen, die den Traffic auf die Website lenken (Keywords ranken auf Seite eins) und ein angemessenes Suchvolumen haben (Head/Mid-Tail -Schwanzfokus)
Wenn Sie Traffic sowohl von Marken- als auch von Nicht-Marken-Keywords erhalten, sollten Sie auch entscheiden, auf welche Art von Keywords Sie sich bei einem Tracking-POV mehr konzentrieren möchten
Im Allgemeinen neigen Nicht-Marken-Keywords dazu, wettbewerbsfähiger und volatiler zu sein
Für die meisten Websites wäre es sinnvoll, sich hauptsächlich auf diese zu konzentrieren
Vergessen Sie nicht, die Rankings auf Desktop- und Mobilgeräten zu verfolgen
Dies macht es viel einfacher, Probleme nach dem Start zu diagnostizieren, falls es bei einem Gerätetyp Leistungsprobleme geben sollte
Wenn Sie ein hohes Traffic-Volumen aus mehr als einem Land erhalten, ziehen Sie die Rangverfolgung von Schlüsselwörtern auch in anderen Märkten in Betracht, da Sichtbarkeit und Rankings von Land zu Land erheblich variieren können
Leistung der Website
Die Seitenladezeiten der neuen Website können einen großen Einfluss sowohl auf den Traffic als auch auf den Umsatz haben
Mehrere Studien haben gezeigt, dass die Absprungrate umso höher ist, je länger das Laden einer Seite dauert
Wenn die Seitenladezeiten und Seitenleistungsbewertungen der alten Website nicht aufgezeichnet wurden, wird es sehr schwierig sein, Verkehrs- oder Umsatzverluste Problemen im Zusammenhang mit der Websiteleistung zuzuschreiben, sobald die neue Website online gegangen ist
Es wird empfohlen, dass Sie alle wichtigen Seitentypen überprüfen mit den Tools PageSpeed Insights und Lighthouse von Google
Sie können Übersichtstabellen wie die untenstehende verwenden, um einige der wichtigsten Leistungsmetriken zu bewerten, die für Vergleiche nützlich sein werden, sobald die neue Website online geht /100 Kategorieseite Langsam 1,8 s 5,1 s Mittel 78/100 Unterkategorieseite Durchschnitt 0,9 s 2,4 s Mittel 69/100 Produktseite Langsam 1,9 s 5,5 s Gut 83/100
DESKTOP Geschwindigkeit FCP DCL Optimierung Optimierungsergebnis Startseite Gut 0,7 s 1,4 s Durchschnitt 81/100 Kategorieseite Schnell 0,6 s 1,2 s Mittel 78/100 Unterkategorieseite Schnell 0,6 s 1,3 s Mittel 78/100 Produktseite Gut 0,8 s 1,3 s Gut 83 /100
Alte Website-Crawling-Daten
Führen Sie einige Tage, bevor die neue Website die alte ersetzt, einen letzten Crawl der alten Website durch
Dies könnte sich später als unschätzbar erweisen, wenn es Optimierungsprobleme auf der neuen Website geben sollte
Ein letzter Crawl ermöglicht es Ihnen, wichtige Informationen über die Seitentitel der alten Website, Meta-Beschreibungen, h1–h6-Überschriften, Serverstatus, kanonische Tags, Noindex/Nofollow-Seiten, Inlinks/Outlinks, Level usw
zu speichern ersparen Ihnen viel Ärger, wenn die neue Website beispielsweise nicht gut optimiert ist oder unter technischen Fehlkonfigurationsproblemen leidet
Versuchen Sie auch, eine Kopie der robots.txt- und XML-Sitemaps der alten Website zu speichern, falls Sie diese später benötigen
Search Console-Daten
Erwägen Sie auch, so viele Search Console-Daten der alten Website wie möglich zu exportieren
Diese sind nur 90 Tage lang verfügbar, und es besteht die Möglichkeit, dass die Search Console-Daten der alten Website früher oder später verschwinden, sobald die neue Website live geht
Daten, die es wert sind, exportiert zu werden, umfassen:
Suchanalyseabfragen und -seiten
Crawl-Fehler
blockierte Ressourcen
Probleme mit der mobilen Nutzbarkeit
URL-Parameter
Strukturierte Datenfehler
Links zu Ihrer Website
Intern links
Indexstatus
Weiterleitungsvorbereitung
Die Implementierung von Weiterleitungen ist eine der wichtigsten Aktivitäten während einer Site-Migration
Wenn die URLs der alten Website nicht mehr existieren und nicht korrekt umgeleitet werden, sinken Ranking und Sichtbarkeit der Website einfach
Warum sind Weiterleitungen bei Website-Migrationen wichtig? Weiterleitungen sind äußerst wichtig, da sie sowohl Suchmaschinen als auch Benutzern helfen, Seiten zu finden, die möglicherweise nicht mehr existieren, umbenannt oder an einen anderen Ort verschoben wurden
Aus SEO-Sicht helfen Weiterleitungen Suchmaschinen dabei, die neuen URLs einer Website schneller zu entdecken und zu indizieren, aber auch zu verstehen, wie die Seiten der alten Website mit den Seiten der neuen Website verknüpft sind
Diese Zuordnung ermöglicht es, dass Ranking-Signale von den alten Seiten auf die neuen übertragen werden, sodass Rankings erhalten bleiben, ohne negativ beeinflusst zu werden
Was passiert, wenn Weiterleitungen nicht korrekt implementiert werden? Wenn Umleitungen schlecht implementiert sind, können die Folgen katastrophal sein
Benutzer landen entweder auf nicht gefundenen Seiten (404s) oder irrelevanten Seiten, die nicht der Benutzerabsicht entsprechen
In beiden Fällen werden die Absprung- und Konversionsraten der Website negativ beeinflusst
Die Folgen für Suchmaschinen können ebenso katastrophal sein: Sie können die Seiten der alten Site nicht mit denen der neuen Site verknüpfen, wenn die URLs nicht identisch sind
Ranking-Signale werden nicht von der alten auf die neue Website übertragen, was zu einem Rückgang des Rankings und einem Verlust der Sichtbarkeit in der organischen Suche führt
Außerdem werden Suchmaschinen länger brauchen, um die Seiten der neuen Website zu entdecken und zu indizieren
301, 302, JavaScript-Umleitungen oder Meta-Aktualisierung?
Wenn die URLs zwischen der alten und der neuen Version der Website unterschiedlich sind, verwenden Sie 301 (permanente) Weiterleitungen
Diese weisen Suchmaschinen an, die neuen URLs zu indizieren und alle Ranking-Signale von den alten URLs an die neuen weiterzuleiten
Daher müssen Sie 301-Weiterleitungen verwenden, wenn Ihre Website zu/von einer anderen Domain/Subdomain wechselt, wenn Sie von HTTP zu HTTPS wechseln oder wenn die Website oder Teile davon umstrukturiert wurden
Trotz einiger Behauptungen von Google, dass 302-Weiterleitungen den PageRank weitergeben, wäre die Indizierung der neuen URLs langsamer und es könnte viel länger dauern, bis Ranking-Signale von der alten auf die neue Seite weitergeleitet werden
302-Weiterleitungen (temporär) sollten nur in Situationen verwendet werden, in denen Eine Weiterleitung muss nicht dauerhaft leben und daher hat die Indizierung der neuen URL keine Priorität
Bei 302-Weiterleitungen werden Suchmaschinen zunächst zögern, den Inhalt der Ziel-URL der Weiterleitung zu indizieren und etwaige Ranking-Signale an diese weiterzuleiten
Wenn die temporären Weiterleitungen jedoch über einen längeren Zeitraum bestehen bleiben, ohne entfernt oder aktualisiert zu werden, könnten sie am Ende ähnlich wie permanente (301) Weiterleitungen sein
Verwenden Sie 302-Weiterleitungen, wenn eine Weiterleitung wahrscheinlich in naher Zukunft aktualisiert oder entfernt werden muss, sowie für alle länder-, sprach- oder gerätespezifischen Weiterleitungen.
Meta-Refresh und JavaScript-Redirects sollten vermieden werden
Auch wenn Google beim Crawlen von JavaScript immer besser wird, gibt es keine Garantie, dass diese erkannt werden oder Ranking-Signale an die neuen Seiten weiterleiten
Wenn Sie mehr darüber erfahren möchten, wie Google mit den verschiedenen Arten von Weiterleitungen umgeht, Bitte lesen Sie den Beitrag von John Mueller.
Umleitungszuordnungsprozess
Wenn Sie das Glück haben, an einer Migration zu arbeiten, die keine URL-Änderungen beinhaltet, können Sie diesen Abschnitt überspringen
Lesen Sie andernfalls weiter, um herauszufinden, warum alte Seiten, die nach der Migration nicht unter derselben URL verfügbar sind, umgeleitet werden sollten
Die Umleitungszuordnungsdatei ist eine Tabelle, die die folgenden zwei Spalten enthält:
Legacy-Site-URL –> die URL einer Seite auf der alten Site.
Neue Site-URL –> die URL einer Seite auf der neuen Site.
Wenn Sie eine Seite von der alten auf die neue Site mappen (umleiten), versuchen Sie immer, sie auf die meisten zu mappen entsprechende entsprechende Seite
In Fällen, in denen eine relevante Seite nicht vorhanden ist, vermeiden Sie es, die Seite auf die Startseite umzuleiten
In erster Linie führt die Umleitung von Benutzern auf irrelevante Seiten zu einer sehr schlechten Benutzererfahrung
Google hat erklärt, dass das Umleiten von Seiten „massenhaft“ auf irrelevante Seiten als weiche 404-Fehler behandelt wird und aus diesem Grund keinen SEO-Wert weitergibt
Wenn Sie auf der neuen Website keine entsprechende Seite finden können, versuchen Sie, sie der übergeordneten Kategorieseite zuzuordnen
Sobald die Zuordnung abgeschlossen ist, muss die Datei an das Entwicklungsteam gesendet werden, um die Weiterleitungen zu erstellen, damit diese dies können getestet werden, bevor die neue Website gestartet wird
Die Implementierung von Weiterleitungen ist ein weiterer Teil des Website-Migrationszyklus, bei dem oft etwas schief gehen kann
Steigerung der Effizienz während des Weiterleitungs-Mapping-Prozesses
Redirect Mapping erfordert viel Liebe zum Detail und muss von erfahrenen SEOs durchgeführt werden
Die URL-Zuordnung auf kleinen Sites könnte theoretisch erfolgen, indem jede URL der alten Site manuell einer URL auf der neuen Site zugeordnet wird
Aber auf großen Websites, die aus Tausenden oder sogar Hunderttausenden von Seiten bestehen, ist die manuelle Zuordnung jeder einzelnen URL praktisch unmöglich und es muss eine Automatisierung eingeführt werden
Sich auf bestimmte gemeinsame Attribute zwischen der alten und der neuen Website zu verlassen, kann eine enorme Zeitersparnis sein
Zu diesen Attributen können Seitentitel, H1-Überschriften oder andere eindeutige Seitenkennungen wie Produktcodes, SKUs usw
gehören
Stellen Sie sicher, dass die Attribute, auf die Sie sich für die Weiterleitungszuordnung verlassen, eindeutig sind und sich nicht auf mehreren Seiten wiederholen; Andernfalls erhalten Sie eine falsche Zuordnung
Profi-Tipp: Stellen Sie sicher, dass die URL-Struktur der neuen Website beim Staging zu 100 % fertiggestellt ist, bevor Sie mit der Arbeit an der Weiterleitungszuordnung beginnen
Nichts ist riskanter, als URLs zuzuordnen, die aktualisiert werden, bevor die neue Website live geht
Wenn URLs aktualisiert werden, nachdem die Weiterleitungszuordnung abgeschlossen ist, müssen Sie beim Start möglicherweise mit unerwünschten Situationen umgehen, z
B
fehlerhaften Weiterleitungen, Weiterleitungsketten und Weiterleitungsschleifen
Die alte Website sollte rechtzeitig vor dem Migrationsdatum gesperrt werden, sodass es einen Stichtag für die Veröffentlichung neuer Inhalte auf der alten Website gibt
Dadurch wird sichergestellt, dass keine Seiten bei der Weiterleitungszuordnung übersehen werden, und es wird garantiert, dass alle Seiten auf der alten Website weitergeleitet werden
Vergessen Sie nicht die alten Weiterleitungen!
Sie sollten sich die vorhandenen Weiterleitungen der alten Website besorgen, um sicherzustellen, dass sie bei der Vorbereitung der Weiterleitungszuordnung für die neue Website berücksichtigt werden
Wenn Sie dies nicht tun, ist es wahrscheinlich, dass die aktuelle Weiterleitungsdatei der Website am Startdatum von der neuen überschrieben wird
Wenn dies passiert, werden alle alten Weiterleitungen, die zuvor vorhanden waren, nicht mehr existieren und die Website kann eine beträchtliche Menge an Link-Equity verlieren, dessen Ausmaß weitgehend von der Menge der alten Weiterleitungen auf der Website abhängt
Beispielsweise sollte eine Website, die in der Vergangenheit einige Migrationen durchlaufen hat, über eine gute Anzahl von alten Weiterleitungen verfügen, die nicht verloren gehen sollen.
Behalten Sie im Idealfall so viele alte Weiterleitungen wie möglich bei und stellen Sie sicher, dass diese keine Probleme verursachen, wenn sie mit den Weiterleitungen der neuen Website kombiniert werden
Es wird dringend empfohlen, potenzielle Weiterleitungsketten in diesem frühen Stadium zu eliminieren
Dies lässt sich leicht bewerkstelligen, indem Sie überprüfen, ob dieselbe URL sowohl als “alte URL” als auch als “neue Website-URL” in der Tabelle für die Weiterleitungszuordnung angezeigt wird
In diesem Fall müssen Sie die „Neue Website-URL“ entsprechend aktualisieren
Beispiel:
URL A leitet zu URL B weiter (alte Weiterleitung)
URL B leitet zu URL C weiter (neue Weiterleitung)
Was zu folgender Weiterleitungskette führt:
URL A –> URL B –> URL C
Um dies zu beseitigen, ändern Sie die vorhandene alte Weiterleitung und erstellen Sie eine neue, sodass:
URL A leitet zu URL C weiter (geänderte alte Weiterleitung)
URL B leitet zu URL C weiter (neue Weiterleitung)
Profi-Tipp: Überprüfen Sie Ihre Redirect-Mapping-Tabelle auf Redirect-Loops
Diese treten auf, wenn die „alte URL“ mit der „neuen Website-URL“ identisch ist
Umleitungsschleifen müssen entfernt werden, da sie dazu führen, dass Seiten unendlich geladen werden, die für Benutzer und Suchmaschinen nicht zugänglich sind
Umleitungsschleifen müssen eliminiert werden, da sie sofortige Traffic-, Conversion- und Ranking-Killer sind!
Implementieren Sie pauschale Umleitungsregeln, um doppelte Inhalte zu vermeiden
Es wird dringend empfohlen, Umleitungsregeln auszuarbeiten, die so viele URL-Anforderungen wie möglich abdecken
Das Implementieren von Umleitungsregeln auf einem Webserver ist viel effizienter, als sich auf zahlreiche Eins-zu-Eins-Umleitungen zu verlassen
Wenn Ihr Weiterleitungszuordnungsdokument aus einer sehr großen Anzahl von Weiterleitungen besteht, die als Eins-zu-eins-Weiterleitungsregeln implementiert werden müssen, kann die Leistung der Website beeinträchtigt werden
Überprüfen Sie in jedem Fall mit dem Entwicklungsteam die maximale Anzahl von Weiterleitungen, die der Webserver problemlos verarbeiten kann
In jedem Fall gibt es einige Standardregeln für Weiterleitungen, die vorhanden sein sollten, um Probleme mit doppelten Inhalten zu vermeiden:
URL-Großschreibung: Alle URLs, die Großbuchstaben enthalten, sollten per 301 auf alle URLs in Kleinbuchstaben umgeleitet werden, z
https://www.website.com/Page/ sollte automatisch auf https://www.website.com/page/ umgeleitet werden
Host: Zum Beispiel sollten alle Nicht-www-URLs per 301 auf ihr www-Äquivalent umgeleitet werden, z
https://website.com/page/ sollte auf https://www.website.com/page/ umgeleitet werden
Protokoll: Auf einer sicheren Website sollten Anfragen für HTTP-URLs an die entsprechende HTTPS-URL umgeleitet werden, z
http://www.website.com/page/” class=”redactor-autoparser-object”>http://www.website.com/page/ sollte automatisch auf https://www.website.com/page umleiten /.Nachgestellter Schrägstrich: Beispielsweise sollten alle URLs, die keinen nachgestellten Schrägstrich enthalten, auf eine Version mit nachgestelltem Schrägstrich umgeleitet werden, z
B
http://www.website.com/page sollte zu http://www.website.com/ umleiten
page/” class=”redactor-autoparser-object”>http://www.website.com/page/
Auch wenn einige dieser standardmäßigen Weiterleitungsregeln auf der alten Website vorhanden sind, gehen Sie nicht davon aus, dass sie unbedingt auf der neuen Website vorhanden sein werden, es sei denn, sie werden ausdrücklich angefordert
Vermeiden Sie interne Weiterleitungen
Versuchen Sie, die internen Links der Website zu aktualisieren, damit sie keine internen Weiterleitungen auslösen
Obwohl Suchmaschinen internen Weiterleitungen folgen können, werden diese nicht empfohlen, da sie die Ladezeiten von Seiten zusätzlich verzögern und sich auch negativ auf die Crawling-Zeit von Suchmaschinen auswirken könnten
Vergessen Sie Ihre Bilddateien nicht
Wenn die Bilder der Website an einen neuen Ort verschoben wurden, empfiehlt Google, die alten Bild-URLs auf die neuen Bild-URLs umzuleiten, damit Google die neuen Bilder schneller finden und indexieren kann
Wenn es nicht einfach ist, alle Bilder umzuleiten, zielen Sie darauf ab, zumindest die Bild-URLs umzuleiten, die angesammelte Backlinks haben
Phase 3: Pre-Launch-Tests
Je früher Sie mit dem Testen beginnen können, desto besser
Bestimmte Dinge müssen vollständig implementiert werden, um getestet zu werden, andere nicht
Beispielsweise könnten User-Journey-Probleme bereits beim Prototypen- oder Wireframe-Design identifiziert werden
Auch inhaltliche Probleme zwischen alter und neuer Seite oder inhaltliche Inkonsistenzen (z
B
zwischen Desktop- und mobiler Seite) konnten frühzeitig erkannt werden
Aber die eher technischen Komponenten sollten erst getestet werden, wenn sie vollständig implementiert sind – Dinge wie Weiterleitungen, kanonische Tags oder XML-Sitemaps
Je früher Probleme identifiziert werden, desto wahrscheinlicher ist es, dass sie vor dem Start der neuen Website behoben werden
Das Erkennen bestimmter Arten von Problemen zu einem späteren Zeitpunkt ist nicht kosteneffektiv, würde mehr Ressourcen erfordern und erhebliche Verzögerungen verursachen
Schlechte Tests und nicht genügend Zeit, um alle Bausteine, die die SEO- und UX-Leistung beeinträchtigen können, gründlich zu testen, können katastrophale Folgen haben, kurz nachdem die neue Website online gegangen ist
Stellen Sie sicher, dass Suchmaschinen nicht auf die Staging-/Test-Website zugreifen können
Bevor Sie die neue Website in einer Staging-/Testumgebung zur Verfügung stellen, treffen Sie einige Vorsichtsmaßnahmen, damit Suchmaschinen sie nicht indizieren
Es gibt ein paar verschiedene Möglichkeiten, dies zu tun, jede mit unterschiedlichen Vor- und Nachteilen
Die Site ist für bestimmte IPs verfügbar (am meisten empfohlen)
Die Testseite nur für bestimmte IP-Adressen (auf der weißen Liste) verfügbar zu machen, ist eine sehr effektive Methode, um zu verhindern, dass Suchmaschinen sie durchsuchen
Jeder, der versucht, auf die URL der Testseite zuzugreifen, kann keine Inhalte sehen, es sei denn, seine IP wurde auf die weiße Liste gesetzt
Der Hauptvorteil besteht darin, dass Benutzer auf der weißen Liste problemlos auf die Website zugreifen und sie durchsuchen können
Der einzige Nachteil ist, dass webbasierte Tools von Drittanbietern (z
B
Google-Tools) aufgrund der IP-Beschränkungen nicht verwendet werden können
Passwortschutz
Der Passwortschutz der Staging-/Test-Site ist eine weitere Möglichkeit, Suchmaschinen-Crawler fernzuhalten, aber diese Lösung hat zwei Hauptnachteile
Je nach Implementierung ist es möglicherweise nicht möglich, eine passwortgeschützte Website zu crawlen und zu testen, wenn die Crawler-Anwendung den Anmeldebildschirm nicht passiert
Der andere Nachteil: Passwortgeschützte Websites, die Formulare zur Authentifizierung verwenden, können mit Anwendungen von Drittanbietern gecrawlt werden, aber es besteht die Gefahr, schwerwiegende und unerwartete Probleme zu verursachen
Dies liegt daran, dass der Crawler auf jeden Link auf einer Seite klickt (wenn Sie angemeldet sind) und am Ende leicht auf Links klicken könnte, die Seiten erstellen oder entfernen, Plugins installieren/deinstallieren usw.
Robots.txt-Blockierung
Das Hinzufügen der folgenden Codezeilen zur robots.txt-Datei der Testseite verhindert, dass Suchmaschinen die Seiten der Testseite durchsuchen
User-agent: * Disallow: /
Ein Nachteil dieser Methode besteht darin, dass die unzulässigen URLs möglicherweise in den Suchergebnissen von Google erscheinen, obwohl der Inhalt, der auf dem Testserver angezeigt wird, nicht indexiert wird
Ein weiterer Nachteil ist, dass, wenn die obige robots.txt-Datei auf die Live-Site verschoben wird, schwerwiegende De-Indexierungsprobleme auftreten
Dies ist etwas, auf das ich schon oft gestoßen bin, und aus diesem Grund würde ich nicht empfehlen, diese Methode zum Blockieren von Suchmaschinen zu verwenden
User Journey Review
Wenn die Website neu gestaltet oder umstrukturiert wurde, besteht die Möglichkeit, dass die User Journeys in gewissem Maße beeinträchtigt werden
Die Überprüfung der User Journeys so früh wie möglich und lange vor dem Start der neuen Website ist aufgrund des Mangels an Benutzerdaten schwierig
Ein erfahrener UX-Experte kann jedoch alle Bedenken melden, die sich negativ auf die Konversionsrate der Website auswirken könnten
Da A/B-Tests in dieser Phase kaum möglich sind, könnte es sich lohnen, einige Benutzertests durchzuführen und zu versuchen, Feedback von echten Benutzern zu erhalten
Leider können Probleme mit der Benutzererfahrung zu den schwierigeren gehören, da sie möglicherweise seitenweite Änderungen erfordern, die viel Zeit und Mühe kosten.
Bei kompletten Website-Überholungen können nicht alle UX-Entscheidungen immer durch Daten gestützt werden, und viele Entscheidungen müssen auf Best Practices, Erfahrungen aus der Vergangenheit und dem „Bauchgefühl“ basieren, daher könnte es sich auszahlen, UX-/CRO-Experten so früh wie möglich einzubeziehen Dividenden später
Überprüfung der Site-Architektur
Eine Site-Migration ist oft eine großartige Gelegenheit, die Site-Architektur zu verbessern
Mit anderen Worten, Sie haben eine großartige Chance, Ihre auf Keywords ausgerichteten Inhalte neu zu organisieren und ihr Suchverkehrspotenzial zu maximieren
Die Durchführung einer umfassenden Keyword-Recherche hilft dabei, die bestmöglichen Kategorien- und Unterkategorieseiten zu identifizieren, sodass Benutzer und Suchmaschinen mit wenigen Klicks zu jeder Seite der Website gelangen können – je weniger, desto besser, sodass Sie am Ende nicht zu tief greifen Taxonomie
Die Identifizierung neuer Keywords mit angemessenem Traffic-Potenzial und deren Zuordnung zu neuen Zielseiten kann einen großen Unterschied für die organischen Traffic-Niveaus der Website ausmachen
Auf der anderen Seite muss die Verbesserung der Site-Architektur sorgfältig erfolgen
Es könnte zu Problemen führen, wenn beispielsweise wichtige Seiten tiefer in die neue Website-Architektur verschoben werden oder wenn zu viele ähnliche Seiten für dieselben Keywords optimiert sind
Einige der erfolgreichsten Site-Migrationen sind diejenigen, die erhebliche Ressourcen zuweisen, um die Site-Architektur zu verbessern
Metadaten & Copy Review
Stellen Sie sicher, dass die Seitentitel, Meta-Beschreibungen, Überschriften und der Text der Website ohne Probleme von der alten auf die neue Website übertragen wurden
Wenn Sie neue Seiten erstellt haben, vergewissern Sie sich, dass diese optimiert sind und nicht auf Keywords abzielen, auf die bereits andere Seiten abzielen
Wenn Sie die Plattform ändern, beachten Sie, dass die neue Plattform möglicherweise andere Standardwerte hat, wenn neue Seiten erstellt werden
Das Starten der neuen Website ohne richtig optimierte Seitentitel oder fehlende Kopien hat unmittelbar negative Auswirkungen auf das Ranking und den Traffic Ihrer Website
Vergessen Sie nicht zu überprüfen, ob auch benutzergenerierte Inhalte (d
h
Benutzerbewertungen, Kommentare) hochgeladen wurden
Überprüfung der internen Verlinkung
Interne Links sind das Rückgrat einer Website
Unabhängig davon, wie gut die Kopie der Website optimiert und strukturiert ist, wird sie nicht ausreichen, um erfolgreich zu sein, es sei denn, sie wird von einem fehlerfreien internen Linkschema unterstützt
Interne Links müssen auf der gesamten Website überprüft werden, einschließlich Links in:
Haupt- und Nebennavigation
Kopf- und Fußzeile links
Links zu Körperinhalten
Paginierung links
Horizontal links (verwandte Artikel, ähnliche Produkte usw.)
Vertikale Links (z
B
Breadcrumb-Navigation)
Cross-Site-Links (z
B
Links über internationale Sites)
Technische Kontrollen
Eine Reihe technischer Prüfungen muss durchgeführt werden, um sicherzustellen, dass die technische Einrichtung der neuen Website einwandfrei ist, und um größere technische Störungen zu vermeiden, nachdem die neue Website online gegangen ist
Überprüfung der Datei Robots.txt
Bereiten Sie die robots.txt-Datei der neuen Website in der Staging-Umgebung vor
Auf diese Weise können Sie sie auf Fehler oder Auslassungen testen und vermeiden, dass Suchmaschinen-Crawling-Probleme auftreten, wenn die neue Website live geht
Ein klassischer Fehler bei Website-Migrationen ist, wenn die robots.txt-Datei den Suchmaschinenzugriff mit der folgenden Anweisung verhindert:
Nicht zulassen: /
Wenn dies versehentlich in die Live-Site übertragen wird (was häufig der Fall ist), wird es Suchmaschinen daran hindern, die Site zu crawlen
Und wenn Suchmaschinen eine indizierte Seite nicht crawlen können, werden die mit der Seite verknüpften Schlüsselwörter in den Suchergebnissen herabgestuft und die Seite schließlich deindexiert
Aber wenn die robots.txt-Datei beim Staging mit den Robotern der neuen Website gefüllt ist. txt-Anweisungen könnte dieses Missgeschick vermieden werden.
Stellen Sie beim Vorbereiten der robots.txt-Datei der neuen Website Folgendes sicher:
Es blockiert nicht den Suchmaschinenzugriff auf Seiten, die indiziert werden sollen
Es blockiert keine JavaScript- oder CSS-Ressourcen, die Suchmaschinen zum Rendern von Seiteninhalten benötigen
Der Inhalt der robots.txt-Datei der alten Website wurde überprüft und übertragen over, falls erforderlich.
Es verweist auf die neuen XML-Sitemaps und nicht auf ältere, die nicht mehr existieren.
Canonical-Tags-Überprüfung
Überprüfen Sie die kanonischen Tags der Website
Suchen Sie nach Seiten, die entweder kein Canonical-Tag haben oder ein Canonical-Tag, das auf eine andere URL verweist, und hinterfragen Sie, ob dies beabsichtigt ist
Vergessen Sie nicht, die kanonischen Tags zu crawlen, um herauszufinden, ob sie eine 200-Serverantwort zurückgeben
Wenn dies nicht der Fall ist, müssen Sie sie aktualisieren, um alle 3xx-, 4xx- oder 5xx-Serverantworten zu eliminieren
Sie sollten auch nach Seiten suchen, die ein kanonisches Tag haben, das auf eine andere URL in Kombination mit einer noindex-Anweisung verweist, da diese beiden widersprüchliche Signale sind und Sie eines davon eliminieren müssen
Nachdem Sie die Staging-Site gecrawlt haben, suchen Sie nach Seiten, deren Meta-Robots-Eigenschaften auf „noindex“ oder „nofollow“ gesetzt sind
Wenn dies der Fall ist, überprüfen Sie jeden einzelnen von ihnen, um sicherzustellen, dass dies beabsichtigt ist, und entfernen Sie die Direktive „noindex“ oder „nofollow“, wenn dies nicht der Fall ist
XML-Sitemaps überprüfen
Bereiten Sie zwei verschiedene Arten von Sitemaps vor: eine, die alle indexierbaren Seiten der neuen Website enthält, und eine, die alle indexierbaren Seiten der alten Website enthält
Ersteres wird dazu beitragen, Google auf die indexierbaren URLs der neuen Website aufmerksam zu machen
Letzteres wird Google helfen, auf die vorhandenen Weiterleitungen und die Tatsache, dass einige der indizierten URLs an neue Orte verschoben wurden, aufmerksam zu werden, damit es sie entdecken und die Suchergebnisse schneller aktualisieren kann
Sie sollten jede XML-Sitemap überprüfen, um sie zu erstellen sicher, dass:
Es validiert ohne Probleme
Es ist als UTF-8 kodiert
Es enthält nicht mehr als 50.000 Zeilen
Seine Größe übersteigt 50 MB im unkomprimierten Zustand nicht
Wenn es mehr als 50.000 Zeilen gibt oder die Dateigröße 50 MB überschreitet, müssen Sie die Sitemap in kleinere aufteilen
Dadurch wird verhindert, dass der Server überlastet wird, wenn Google die Sitemap zu häufig anfordert
Außerdem müssen Sie jede XML-Sitemap crawlen, um sicherzustellen, dass sie nur indexierbare URLs enthält
Alle nicht indexierbaren URLs sollten aus den XML-Sitemaps ausgeschlossen werden, wie z
3xx-, 4xx- und 5xx-Seiten (z
B
umgeleitete, nicht gefundene Seiten, fehlerhafte Anfragen usw.)
Weiche 404er
Dies sind Seiten ohne Inhalt, die eine 200-Serverantwort anstelle einer 404 zurückgeben
Kanonisierte Seiten (abgesehen von selbstverweisenden kanonischen URLs)
Seiten mit einer Meta-Robots-Noindex-Direktive
(…) (…)
Seiten mit einem noindex X-Robots-Tag im HTTP-Header
HTTP/1.1 200 OK Datum: Di, 10
Nov
2017 17:12:43 GMT (…) X-Robots-Tag: noindex (…)
Von der robots.txt-Datei blockierte Seiten
Das Erstellen sauberer XML-Sitemaps kann dabei helfen, die tatsächlichen Indizierungsebenen der neuen Website zu überwachen, sobald sie live geht
Wenn Sie dies nicht tun, wird es sehr schwierig sein, Indizierungsprobleme zu erkennen.
Profi-Tipp: Laden Sie jede XML-Sitemap herunter und öffnen Sie sie in Excel, um einen detaillierten Überblick über zusätzliche Attribute wie hreflang oder Bildattribute zu erhalten.
HTML-Sitemap-Überprüfung
Je nach Größe und Art der zu migrierenden Website kann es in bestimmten Fällen von Vorteil sein, eine HTML-Sitemap zu haben
Eine HTML-Sitemap, die aus URLs besteht, die nicht über die Hauptnavigation der Website verlinkt sind, kann das Auffinden und Indizieren von Seiten erheblich verbessern
Vermeiden Sie es jedoch, eine HTML-Sitemap zu erstellen, die zu viele URLs enthält
Wenn Sie Tausende von URLs einfügen müssen, sollten Sie eine segmentierte HTML-Sitemap erstellen
Die Anzahl der verschachtelten Sitemaps sowie die maximale Anzahl von URLs, die Sie in jede Sitemap aufnehmen sollten, hängt von der Autorität der Website ab
Je autoritativer eine Website ist, desto mehr verschachtelte Sitemaps und URLs könnte sie verkraften
Beispielsweise besteht die HTML-Sitemap von NYTimes.com aus drei Ebenen, von denen jede über 1.000 URLs pro Sitemap enthält
Diese verschachtelten HTML-Sitemaps helfen Suchmaschinen-Crawlern beim Auffinden von Artikeln, die seit 1851 veröffentlicht wurden und die sonst schwer zu finden und zu indizieren wären, da nicht alle intern verlinkt worden wären
Strukturierte Datenprüfung
Fehler im strukturierten Daten-Markup müssen frühzeitig erkannt werden, damit Zeit bleibt, sie zu beheben, bevor die neue Website live geht
Idealerweise sollten Sie jede einzelne Seitenvorlage (und nicht jede einzelne Seite) mit dem Testtool für strukturierte Daten von Google testen
Überprüfen Sie unbedingt das Markup sowohl auf den Desktop- als auch auf den mobilen Seiten, insbesondere wenn die mobile Website nicht responsive ist Das Tool meldet nur vorhandene Fehler, aber keine Auslassungen
Wenn Ihre Produktseitenvorlage beispielsweise das strukturierte Datenschema „Produkt“ nicht enthält, meldet das Tool keine Fehler
Daher sollten Sie neben der Fehlersuche auch sicherstellen, dass jede Seitenvorlage das entsprechende strukturierte Daten-Markup für ihren Inhaltstyp enthält
Die aktuellsten Details zur Implementierung strukturierter Daten und unterstützter Inhaltstypen finden Sie in der Google-Dokumentation.
Überprüfung des JavaScript-Crawlings
Sie müssen jede einzelne Seitenvorlage der neuen Website testen, um sicherzustellen, dass Google Inhalte crawlen kann, die JavaScript-Parsing erfordern
Wenn Sie das Abruf- und Rendering-Tool von Google auf Ihrer Staging-Site verwenden können, sollten Sie dies unbedingt tun
Führen Sie andernfalls einige manuelle Tests durch, folgen Sie den Ratschlägen von Justin Brigg Rahmen
Die folgende Tabelle fasst die Ergebnisse von Bartosz zusammen und zeigt, dass einige JavaScript-Frameworks nicht SEO-freundlich sind, wobei AngularJS derzeit das problematischste von allen ist
Bartosz fand auch heraus, dass andere Suchmaschinen (wie Bing, Yandex und Baidu) wirklich mit der Indexierung zu kämpfen hatten JavaScript-generierter Inhalt, der wichtig zu wissen ist, wenn der Datenverkehr Ihrer Website von einer dieser Suchmaschinen abhängt
Hoffentlich wird sich dies im Laufe der Zeit verbessern, aber mit der zunehmenden Popularität von JavaScript-Frameworks in der Webentwicklung muss dies ganz oben auf Ihrer Checkliste stehen
Schließlich sollten Sie überprüfen, ob externe Ressourcen blockiert werden
Leider können Sie dies nicht zu 100 % kontrollieren, da viele Ressourcen (wie JavaScript- und CSS-Dateien) von Websites Dritter gehostet werden, die sie möglicherweise über ihre eigenen robots.txt-Dateien blockieren!
Auch hier kann das Tool Abrufen und Rendern helfen, diese Art von Problem zu diagnostizieren, das, wenn es nicht behoben wird, erhebliche negative Auswirkungen haben könnte
SEO-Überprüfung für mobile Websites
Überprüfung der Asset-Blockierung
Stellen Sie zunächst sicher, dass die robots.txt-Datei nicht versehentlich JavaScript-, CSS- oder Bilddateien blockiert, die für die Wiedergabe der Inhalte der mobilen Website unerlässlich sind
Dies könnte sich negativ darauf auswirken, wie Suchmaschinen den Seiteninhalt der mobilen Website rendern und indexieren, was sich wiederum negativ auf die Sichtbarkeit und Leistung der mobilen Website auswirken könnte
Überprüfung des Mobile-First-Index
Um Probleme im Zusammenhang mit dem Mobile-First-Index von Google zu vermeiden, überprüfen Sie die mobile Website gründlich und stellen Sie sicher, dass es in den folgenden Bereichen keine Inkonsistenzen zwischen der Desktop- und der mobilen Website gibt:
Seitentitel
Meta-Beschreibungen
Überschriften kopieren
Kanonische Tags
Meta-Roboter-Attribute (z
B
noindex, nofollow)
Intern links
Strukturierte Daten
Eine responsive Website sollte auf allen Geräten dieselben Inhalte, Links und Auszeichnungen bereitstellen, und die oben genannten SEO-Attribute sollten auf Desktop- und mobilen Websites identisch sein mobile Website eingerichtet
Responsive Website-Überprüfung
Eine responsive Website muss allen Geräten den gleichen HTML-Code liefern, der (über die Verwendung von CSS) je nach Bildschirmgröße angepasst wird
Der Googlebot kann diese mobile Einrichtung automatisch erkennen, solange er die Seite und ihre Assets crawlen darf
Daher ist es äußerst wichtig sicherzustellen, dass der Googlebot auf alle wichtigen Assets wie Bilder, JavaScript- und CSS-Dateien zugreifen kann.
Um Browsern zu signalisieren, dass eine Seite responsive ist, sollte ein meta=”viewport”-Tag im
jeder HTML-Seite eingefügt werdenWenn das Meta-Darstellungsbereich-Tag fehlt, werden die Schriftgrößen möglicherweise inkonsistent angezeigt, was dazu führen kann, dass Google die Seite als nicht für Mobilgeräte optimiert einstuft
Separate Überprüfung der mobilen URLs
Wenn die mobile Website separate URLs vom Desktop verwendet, stellen Sie Folgendes sicher:
Jede Desktop-Seite hat ein Tag, das auf die entsprechende mobile URL verweist
Jede mobile Seite hat ein rel=”canonical”-Tag, das auf die entsprechende Desktop-URL verweist
Wenn Desktop-URLs auf mobilen Geräten angefordert werden, werden sie auf die entsprechende mobile URL umgeleitet
Weiterleitungen funktionieren auf allen Mobilgeräten, einschließlich Android, iPhone und Windows Phones
Es gibt keine irrelevanten Querverweise zwischen den Desktop- und mobilen Seiten
Das bedeutet, dass interne Links, die auf einer Desktop-Seite gefunden wurden, nur auf Desktop-Seiten verweisen sollten und solche, die auf einer mobilen Seite gefunden wurden, nur auf andere mobile Seiten verweisen sollten
Die mobilen URLs geben eine 200-Serverantwort zurück
Überprüfung der dynamischen Bereitstellung
Websites mit dynamischer Bereitstellung stellen jedem Gerät unterschiedlichen Code bereit, jedoch unter derselben URL
Überprüfen Sie auf Websites mit dynamischer Bereitstellung, ob der HTTP-Header „variable“ korrekt eingerichtet wurde
Dies ist erforderlich, da Websites mit dynamischer Bereitstellung den HTML-Code für mobile Benutzeragenten ändern und der variable HTTP-Header dem Googlebot hilft, die mobilen Inhalte zu erkennen
Überprüfung der Handyfreundlichkeit
Überprüfen Sie die Seiten unabhängig von der Einrichtung der mobilen Website (responsive, separate URLs oder dynamische Bereitstellung) mit einem mobilen User-Agent und stellen Sie Folgendes sicher:
Das Ansichtsfenster wurde korrekt eingestellt
Die Verwendung eines Darstellungsbereichs mit fester Breite auf mehreren Geräten führt zu Problemen bei der mobilen Nutzbarkeit
Die Schriftgröße ist nicht zu klein
Touch-Elemente (d
h
Schaltflächen links) sind nicht zu nah
Es gibt keine aufdringlichen Interstitials wie Anzeigen, Anmeldeformulare für Mailinglisten, App-Download-Popups usw
Um Probleme zu vermeiden, sollten Sie entweder ein kleines HTML- oder ein Image-Banner verwenden
Mobile Seiten werden nicht zu langsam geladen (siehe nächster Abschnitt)
Das für Mobilgeräte optimierte Testtool von Google kann bei der Diagnose der meisten der oben genannten Probleme helfen:
Überprüfung der AMP-Website
Wenn es eine AMP-Website gibt und eine Desktop-Version der Website verfügbar ist, stellen Sie Folgendes sicher:
Jede Nicht-AMP-Seite (d
h
Desktop, Mobil) hat ein Tag, das auf die entsprechende AMP-URL verweist.
Jede AMP-Seite hat ein rel=”canonical”-Tag, das auf die entsprechende Desktop-Seite verweist.
Jede AMP-Seite, die keine entsprechende AMP-Seite hat Die Desktop-URL hat ein selbstverweisendes kanonisches Tag
Sie sollten auch sicherstellen, dass die AMPs gültig sind
Dies kann mit dem AMP-Testtool von Google getestet werden
Mixed-Content-Fehler
Da Google stark darauf drängt, dass Websites vollständig sicher sind, und Chrome der erste Browser ist, der HTTP-Seiten als nicht sicher kennzeichnet, sollten Sie die neue Website auf HTTPS starten und sicherstellen, dass alle Ressourcen wie Bilder, CSS- und JavaScript-Dateien über sicheres HTTPS angefordert werden Verbindungen
Dies ist wichtig, um Probleme mit gemischten Inhalten zu vermeiden.
Gemischte Inhalte treten auf, wenn eine Seite, die über eine sichere HTTPS-Verbindung geladen wird, Assets über unsichere HTTP-Verbindungen anfordert
Die meisten Browser blockieren entweder gefährliche HTTP-Anforderungen oder zeigen nur Warnungen an, die die Benutzererfahrung beeinträchtigen
Es gibt viele Möglichkeiten, Fehler bei gemischten Inhalten zu identifizieren, einschließlich der Verwendung von Crawler-Anwendungen, Googles Lighthouse usw.
Überprüfung von Bild-Assets
Google crawlt Bilder seltener als HTML-Seiten
Wenn Sie die Bilder einer Website von einem Standort zu einem anderen migrieren (z
B
von Ihrer Domain zu einem CDN), gibt es Möglichkeiten, Google dabei zu helfen, die migrierten Bilder schneller zu finden
Das Erstellen einer Bild-XML-Sitemap ist hilfreich, aber Sie müssen auch sicherstellen, dass der Googlebot beim Crawlen der Website auf die Bilder der Website zugreifen kann
Der knifflige Teil bei der Bildindizierung ist, dass sowohl die Webseite, auf der ein Bild erscheint, als auch die Bilddatei selbst indiziert werden müssen
Überprüfung der Websiteleistung
Messen Sie zu guter Letzt die Seitenladezeiten der alten Website und sehen Sie, wie diese mit denen der neuen Website verglichen werden, wenn diese auf Staging verfügbar wird
Konzentrieren Sie sich in dieser Phase auf die netzwerkunabhängigen Performance-Aspekte wie die Verwendung externer Ressourcen (Bilder, JavaScript und CSS), den HTML-Code und die Konfiguration des Webservers
Weitere Informationen dazu finden Sie weiter unten
Analytics-Tracking-Überprüfung
Stellen Sie sicher, dass das Analytics-Tracking richtig eingerichtet ist
Diese Überprüfung sollte idealerweise von spezialisierten Analyseberatern durchgeführt werden, die über die Implementierung des Tracking-Codes hinausblicken
Stellen Sie sicher, dass Ziele und Ereignisse richtig eingerichtet sind, E-Commerce-Tracking implementiert ist, erweitertes E-Commerce-Tracking aktiviert ist usw
Es gibt nichts Frustrierenderes, als keine Analysedaten zu haben, nachdem Ihre neue Website gestartet wurde
Weiterleitungstests
Das Testen der Weiterleitungen, bevor die neue Website live geht, ist entscheidend und kann Ihnen später viel Ärger ersparen
Es gibt viele Möglichkeiten, die Weiterleitungen auf einem Staging-/Testserver zu überprüfen, aber unterm Strich sollten Sie die neue Website nicht starten, ohne die Weiterleitungen getestet zu haben
Sobald die Weiterleitungen in der Staging-/Testumgebung verfügbar sind, crawlen Sie die gesamte Website Liste der Weiterleitungen und prüfen Sie auf folgende Probleme:
Umleitungsschleifen (eine URL, die unendlich auf sich selbst umleitet)
Weiterleitungen mit einer 4xx- oder 5xx-Serverantwort.
Weiterleitungsketten (eine URL, die zu einer anderen URL weiterleitet, die wiederum zu einer anderen URL weiterleitet usw.).
Kanonische URLs, die eine 4xx- oder 5xx-Serverantwort zurückgeben.
Kanonische Schleifen (Seite A hat ein Canonical, das auf Seite B zeigt, das ein Canonical hat, das auf Seite A zeigt)
zu HTTP- und HTTPS-URLs oder www- und Nicht-www-URLs
Führende/nachgestellte Leerzeichen
Verwenden Sie trim() in Excel, um sie zu beseitigen
Ungültige Zeichen in URLs
Profi-Tipp: Stellen Sie sicher, dass eine der URLs der alten Website auf die richtige URL auf der neuen Website umleitet
Da die neue Website noch nicht existiert, können Sie zu diesem Zeitpunkt nur testen, ob die Ziel-URL der Weiterleitung die beabsichtigte ist, aber es lohnt sich auf jeden Fall
Die Tatsache, dass eine URL weiterleitet, bedeutet nicht, dass sie auf die richtige Seite weiterleitet
Phase 4: Tagesaktivitäten starten
Wenn die Seite heruntergefahren ist..
Während die neue Seite die alte ersetzt, besteht die Möglichkeit, dass die Live-Seite vorübergehend nicht erreichbar ist
Die Ausfallzeit sollte auf ein Minimum beschränkt werden, aber währenddessen sollte der Webserver auf jede URL-Anfrage mit einer 503-Serverantwort (Dienst nicht verfügbar) antworten
Dadurch wird den Suchmaschinen-Crawlern mitgeteilt, dass die Website vorübergehend wegen Wartungsarbeiten nicht verfügbar ist, sodass sie später zurückkehren, um die Website zu crawlen negativ beeinflusst werden und die Wiederherstellung erfolgt nicht sofort, sobald die Site wiederhergestellt ist
Darüber hinaus sollte die Website, während sie vorübergehend nicht verfügbar ist, auch als informative Warteseite dienen, die die Benutzer darüber informiert, dass die Website vorübergehend wegen Wartungsarbeiten nicht verfügbar ist
Technische Stichproben
Sobald die neue Seite live gegangen ist, werfen Sie einen kurzen Blick auf:
Die robots.txt-Datei, um sicherzustellen, dass Suchmaschinen nicht daran gehindert werden, Top-Seiten-Weiterleitungen zu crawlen (z
B
werden Anfragen für die Top-Seiten der alten Website korrekt weitergeleitet?) Top-Seiten-Canonical-Tags Top-Seiten-Serverantworten Noindex/nofollow-Anweisungen, falls sie unbeabsichtigt sind
Die Stichproben müssen sowohl auf der mobilen als auch auf der Desktop-Website durchgeführt werden, es sei denn, die Website ist vollständig responsive
Aktionen der Search Console
Folgende Aktivitäten sollten stattfinden, sobald die neue Website live gegangen ist:
Testen und laden Sie die XML-Sitemap(s) hoch Legen Sie den bevorzugten Standort der Domain fest (www oder nicht-www) Legen Sie die internationale Ausrichtung fest (falls zutreffend) Konfigurieren Sie die URL-Parameter, um potenzielle Probleme mit doppelten Inhalten frühzeitig anzugehen
Laden Sie die Disavow-Datei hoch (falls zutreffend)
Verwenden Sie das Adressänderungstool (bei einem Domainwechsel)
Profi-Tipp: Verwenden Sie die Funktion „Abruf wie durch Google“ für jeden unterschiedlichen Seitentyp (z
B
die Startseite, eine Kategorie, eine Unterkategorie, eine Produktseite), um sicherzustellen, dass der Googlebot die Seiten ohne Probleme rendern kann
Überprüfen Sie alle gemeldeten blockierten Ressourcen und vergessen Sie nicht, Fetch and Render für Desktop und Mobilgeräte zu verwenden, insbesondere wenn die mobile Website nicht reagiert
Phase 5: Überprüfung nach dem Start
Sobald die neue Seite online gegangen ist, sollte eine neue Runde eingehender Überprüfungen durchgeführt werden
Dies sind im Wesentlichen dieselben wie die im Abschnitt „Phase 3: Pre-Launch-Tests“ erwähnten
Der Hauptunterschied in dieser Phase besteht jedoch darin, dass Sie jetzt Zugriff auf viel mehr Daten und Tools haben
Unterschätzen Sie nicht den Aufwand, den Sie in dieser Phase aufwenden müssen, denn alle Probleme, auf die Sie jetzt stoßen, wirken sich direkt auf die Leistung der Website in den SERPs aus
Andererseits gilt: Je früher ein Problem identifiziert wird, desto schneller wird es gelöst
Zusätzlich zur Wiederholung der gleichen Testaufgaben, die im Abschnitt Phase 3 beschrieben wurden, können Dinge in bestimmten Bereichen gründlicher, genauer und genauer getestet werden ausführlicher
Sie können jetzt die Funktionen der Search Console voll ausschöpfen
Überprüfen Sie die Crawling-Statistiken und Serverprotokolle
Behalten Sie die in der Search Console verfügbaren Crawling-Statistiken im Auge, um sicherzustellen, dass Google die Seiten der neuen Website crawlt
Wenn der Googlebot auf neue Seiten stößt, neigt er im Allgemeinen dazu, die durchschnittliche Anzahl der Seiten, die er pro Tag durchsucht, zu beschleunigen
Wenn Sie jedoch zum Zeitpunkt des Startdatums keine Spitzen erkennen können, beeinträchtigt möglicherweise etwas die Fähigkeit des Googlebots, die Website zu crawlen
Die Überprüfung der Serverprotokolldateien ist bei weitem die effektivste Methode, um Crawling-Probleme oder Ineffizienzen zu erkennen
Tools wie Botify und On Crawl können äußerst nützlich sein, da sie Crawls mit Serverprotokolldaten kombinieren und Seiten hervorheben können, die von Suchmaschinen nicht gecrawlt werden, Seiten, die nicht intern verlinkt sind (verwaiste Seiten), Seiten mit geringem Wert, die stark intern verlinkt sind, und vieles mehr.
Crawling-Fehler regelmäßig überprüfen
Behalten Sie die gemeldeten Crawling-Fehler im Auge, in den ersten Wochen am besten täglich
Das tägliche Herunterladen dieser Fehler, das Crawlen der gemeldeten URLs und das Ergreifen der erforderlichen Maßnahmen (z
B
Implementieren zusätzlicher 301-Weiterleitungen, Beheben von Soft-404-Fehlern) trägt zu einer schnelleren Wiederherstellung bei
Es ist höchst unwahrscheinlich, dass Sie jeden einzelnen gemeldeten 404-Fehler umleiten müssen, aber Sie sollten Umleitungen für die wichtigsten hinzufügen
Profi-Tipp: In Google Analytics können Sie leicht herausfinden, welche die am häufigsten angeforderten 404-URLs sind, und diese zuerst beheben !
Weitere nützliche Funktionen der Search Console
Andere Search Console-Funktionen, die es wert sind, überprüft zu werden, sind blockierte Ressourcen, strukturierte Datenfehler, Fehler bei der mobilen Benutzerfreundlichkeit, HTML-Verbesserungen und internationales Targeting (um nach hreflang-gemeldeten Fehlern zu suchen)
Profi-Tipp: Behalten Sie die URL-Parameter im Auge, falls sie erneut Probleme mit doppelten Inhalten verursachen
Wenn dies der Fall ist, sollten Sie erwägen, dringend Abhilfemaßnahmen zu ergreifen.
Geschwindigkeit der Website messen
Sobald die neue Website online ist, messen Sie die Geschwindigkeit der Website, um sicherzustellen, dass die Seiten der Website sowohl auf Desktop- als auch auf Mobilgeräten schnell genug geladen werden
Da die Website-Geschwindigkeit ein geräteübergreifendes Ranking-Signal ist und langsame Seiten Benutzer und Kunden verlieren, ist es äußerst wichtig, die Geschwindigkeit der neuen Website mit der der alten Website zu vergleichen
Wenn die Seitenladezeiten der neuen Website länger zu sein scheinen, sollten Sie sofort Maßnahmen ergreifen, da sonst der Verkehr und die Conversions Ihrer Website mit ziemlicher Sicherheit beeinträchtigt werden
Auswerten der Geschwindigkeit mit den Tools von Google
Zwei Tools, die dabei helfen können, sind Google Lighthouse und Pagespeed Insights.
Das Pagespeed Insights Tool misst die Seitenleistung sowohl auf mobilen als auch auf Desktop-Geräten und zeigt reale Seitengeschwindigkeitsdaten basierend auf Benutzerdaten, die Google von Chrome erfasst
Es überprüft auch, ob eine Seite gängige Best Practices für die Leistung angewendet hat, und liefert einen Optimierungsfaktor
Das Tool umfasst die folgenden Hauptkategorien:
Speed Score: Kategorisiert eine Seite anhand von zwei Metriken als schnell, durchschnittlich oder langsam: The First Contentful Paint (FCP) und DOM Content Loaded (DCL)
Eine Seite gilt als schnell, wenn beide Metriken im obersten Drittel ihrer Kategorie liegen drittes), Durchschnitt (mittleres Drittel) oder Langsam (unteres Drittel) durch Vergleich mit allen FCP- und DCL-Ereignissen im Chrome-Benutzererfahrungsbericht
Seitenstatistiken: Kann angeben, ob die Seite möglicherweise schneller ist, wenn der Entwickler das Erscheinungsbild und die Funktionalität ändert der Seite
Optimierungsvorschläge: Eine Liste von Best Practices, die auf eine Seite angewendet werden könnten
Google Lighthouse ist sehr praktisch für die Prüfung der mobilen Leistung, Zugänglichkeit und Progressive Web Apps
Es bietet verschiedene nützliche Metriken, die verwendet werden können, um die Seitenleistung auf mobilen Geräten zu messen, wie zum Beispiel:
First Meaningful Paint, das misst, wann der primäre Inhalt einer Seite sichtbar ist
Time to Interactive ist der Punkt, an dem die Seite für einen Benutzer bereit ist, mit ihr zu interagieren
Speed Index misst, wie schnell eine Seite sichtbar gefüllt wird
Beide Tools bieten Empfehlungen zur Verbesserung gemeldeter Probleme mit der Websiteleistung
Sie können dieses Google-Tool auch verwenden, um eine grobe Schätzung des Prozentsatzes der Nutzer zu erhalten, die Sie möglicherweise aufgrund langsamer Seitenladezeiten von den Seiten Ihrer mobilen Website verlieren Das Tool bietet auch einen Branchenvergleich, damit Sie sich ein Bild davon machen können, wie weit Sie von den leistungsstärksten Websites in Ihrer Branche entfernt sind
Geschwindigkeitsmessung von echten Benutzern
Sobald die Website online gegangen ist, können Sie damit beginnen, die Website-Geschwindigkeit basierend auf den Benutzern zu bewerten, die Ihre Website besuchen
Wenn Sie Google Analytics haben, können Sie die durchschnittliche Ladezeit der neuen Website leicht mit der vorherigen vergleichen
Wenn Sie außerdem Zugriff auf ein Real User Monitoring-Tool wie Pingdom haben, können Sie die Website-Geschwindigkeit anhand der Besucher Ihrer Website bewerten Seite? ˅
Die folgende Karte zeigt, wie verschiedene Besucher abhängig von ihrem geografischen Standort sehr unterschiedliche Ladezeiten erleben
Im Beispiel unten scheinen die Seitenladezeiten für Besucher aus Großbritannien, den USA und Deutschland zufriedenstellend zu sein, aber für Benutzer in anderen Ländern sind sie viel länger
Phase 6: Messung der Site-Migrationsleistung
Wann messen
War die Site-Migration erfolgreich? Das ist die millionenschwere Frage, auf die alle Beteiligten eine Antwort wissen möchten, sobald die neue Seite live geht
In Wirklichkeit wird die Antwort umso klarer, je länger Sie warten, da die Sichtbarkeit in den ersten Wochen oder sogar Monaten je nach Größe und Autorität Ihrer Website sehr volatil sein kann
Bei kleineren Sites sollte ein Zeitraum von 4 bis 6 Wochen ausreichen, bevor die Sichtbarkeit der neuen Site mit der der alten Site verglichen wird
Bei großen Websites müssen Sie möglicherweise mindestens 2–3 Monate warten, bevor Sie messen
Wenn sich die neue Website erheblich von der vorherigen unterscheidet, benötigen die Benutzer außerdem einige Zeit, um sich an das neue Erscheinungsbild zu gewöhnen und sich zu gewöhnen sich mit der neuen Taxonomie, den User Journeys usw
vertraut machen
Solche Änderungen wirken sich zunächst erheblich negativ auf die Conversion-Rate der Website aus, die sich nach einigen Wochen verbessern sollte, da sich wiederkehrende Besucher immer mehr an die neue Website gewöhnen
In jedem Fall kann es riskant sein, datenbasierte Rückschlüsse auf die UX der neuen Website zu ziehen.
Dies sind jedoch nur allgemeine Faustregeln, die zusammen mit anderen Faktoren berücksichtigt werden müssen
Wenn zum Beispiel einige Tage oder Wochen nach dem Start der neuen Website erhebliche zusätzliche Änderungen vorgenommen wurden (z
B
um ein technisches Problem zu beheben), sollte die Bewertung der Migration weiter nach hinten verschoben werden
Die Leistungsmessung ist sehr wichtig, und obwohl Interessengruppen nur daran interessiert sind, etwas über die Auswirkungen auf Umsatz und Traffic zu erfahren, gibt es eine ganze Reihe anderer Metriken, auf die Sie achten sollten
Beispielsweise kann es mehrere Gründe für einen Umsatzrückgang nach einer Website-Migration geben, darunter saisonale Trends, geringeres Markeninteresse, UX-Probleme, die die Konversionsrate der Website erheblich gesenkt haben, schlechte mobile Leistung, schlechte Seitenladezeiten usw
Also, rein Achten Sie neben den organischen Traffic- und Umsatzzahlen auch auf Folgendes:
Desktop- und mobile Sichtbarkeit (von SearchMetrics, SEMrush, Sistrix)
Desktop- und mobile Rankings (von jedem zuverlässigen Ranking-Tracking-Tool)
Benutzerinteraktion (Absprungrate, durchschnittliche Zeit auf der Seite)
Sitzungen pro Seitentyp (d. h
führen die Kategorieseiten zu so vielen Sitzungen wie zuvor?)
Konversionsrate pro Seitentyp (d
h
konvertieren die Produktseiten auf die gleiche Weise wie zuvor?)
Conversion-Rate nach Gerät (d. h
ist die Desktop-/Mobil-Conversion-Rate seit dem Start der neuen Website gestiegen/gesunken?)
Die Überprüfung der folgenden Punkte könnte auch sehr praktisch sein, insbesondere aus Sicht der technischen Fehlerbehebung:
Anzahl der indexierten Seiten (Search Console)
Eingereichte vs
indexierte Seiten in XML-Sitemaps (Search Console)
Seiten mit mindestens einem Besuch (Analytics)
Seitengeschwindigkeit (PageSpeed Insights, Lighthouse, Google Analytics)
Erst nachdem Sie sich mit allen oben genannten Bereichen befasst haben, können Sie mit Sicherheit feststellen, ob Ihre Migration erfolgreich war oder nicht
Viel Glück und wenn Sie Beratung oder Unterstützung bei Ihrer Website-Migration benötigen, wenden Sie sich bitte an! Checkliste für die Site-Migration
Eine aktuelle Checkliste für die Site-Migration kann von unserer Website heruntergeladen werden
Bitte beachten Sie, dass die Checkliste regelmäßig aktualisiert wird, um alle kritischen Bereiche für eine erfolgreiche Site-Migration einzubeziehen
Anhang: Nützliche Tools
Raupen
Screaming Frog: Das Schweizer Taschenmesser für SEO, ideal zum Crawlen kleiner und mittlerer Websites
Sitebulb: Sehr intuitive Crawler-Anwendung mit einer übersichtlichen Benutzeroberfläche, gut organisierten Berichten und vielen nützlichen Datenvisualisierungen
Deep Crawl: Cloud-basiert Crawler mit der Fähigkeit, Staging-Sites zu crawlen und Crawl-Vergleiche durchzuführen
Ermöglicht Vergleiche zwischen verschiedenen Crawls und kommt gut mit großen Websites zurecht.
Botify: Ein weiterer leistungsstarker Cloud-basierter Crawler, der durch außergewöhnliche Funktionen zur Analyse von Serverprotokolldateien unterstützt wird, die sehr aufschlussreich sein können, um zu verstehen, wie Suchmaschinen die Website crawlen.
On-Crawl : Crawler- und Server-Log-Analysator für SEO-Audits in Unternehmen mit vielen praktischen Funktionen zur Identifizierung von Crawl-Budget, Inhaltsqualität und Leistungsproblemen
Praktische Chrome-Add-Ons
Tools zur Website-Überwachung
Uptime Robot: Kostenlose Überwachung der Website-Verfügbarkeit.
Robotto: Kostenloses robots.txt-Überwachungstool.
Pingdom-Tools: Überwacht die Website-Verfügbarkeit und Seitengeschwindigkeit von echten Benutzern (RUM-Dienst)
SEO-Radar: Überwacht alle kritischen SEO-Elemente und löst Warnungen aus, wenn sich diese ändern.
Website-Performance-Tools
PageSpeed Insights: Misst die Seitenleistung für mobile und Desktop-Geräte
Es überprüft, ob eine Seite gängige Best Practices für die Leistung angewendet hat, und liefert eine Punktzahl, die zwischen 0 und 100 Punkten liegt
Lighthouse: Praktische Chrome-Erweiterung für Audits zu Leistung, Zugänglichkeit und progressiven Web-Apps
Kann auch über die Befehlszeile oder als Node-Modul ausgeführt werden
Webpagetest.org: Sehr detaillierte Seitentests von verschiedenen Standorten, Verbindungen und Geräten, einschließlich detaillierter Wasserfalldiagramme
Testwerkzeuge für strukturierte Daten
Mobile Testwerkzeuge
Backlink-Datenquellen
GoogleBot Crawler ora utilizza HTTP / 2 per indicizzare il Web, discutiamo di come questo influisce sul nostro back-end. Update New
Neues Update zum Thema googlebot image 1.0
Google Bot is now attempting to use HTTP/2 to crawl the web
Ever since mainstream browsers started supporting the next major revision of HTTP, HTTP/2 or h2 for short, web professionals asked us whether Googlebot can crawl over the upgraded, more modern version of the protocol.
Today we’re announcing that starting mid November 2020, Googlebot will support crawling over HTTP/2 for select sites.
Article
https://webmasters.googleblog.com/2020/09/googlebot-will-soon-speak-http2.html
* Intro 0:00
* What is a Crawler 1:06
* Current Crawler uses h1 2:00
* Crawler now uses h2 4:40
* Less connections, slightly high CPU usage 6:30
* Opting out of h2 crawling 9:00
* FAQ 11:40
Http/2 playlist 0;50 https://www.youtube.com/playlist?list=PLQnljOFTspQWbBegaU790WhH7gNKcMAl-
http/2 not cheap 7;00 https://www.youtube.com/watch?v=GriONb4EfPY
lucid chart 9;50 https://www.youtube.com/watch?v=gejfT1h6LBo
h2c smuggling 18:30 https://www.youtube.com/watch?v=B2VEQ3jFq6Q
🎙️Listen to the Backend Engineering Podcast
https://husseinnasser.com/podcast
🏭 Backend Engineering Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQUNnO4p00ua_C5mKTfldiYT
💾 Database Engineering Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQXjD0HOzN7P2tgzu7scWpl2
🏰 Load Balancing and Proxies Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQVMeBmWI2AhxULWEeo7AaMC
🏛️ Software Archtiecture Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQXNP6mQchJVP3S-3oKGEuw9
📩 Messaging Systems
https://www.youtube.com/playlist?list=PLQnljOFTspQVcumYRWE2w9kVxxIXy_AMo
Become a Member
https://www.youtube.com/channel/UC_ML5xP23TOWKUcc-oAE_Eg/join
Support me on PayPal
https://bit.ly/33ENps4
Stay Awesome,
Hussein
googlebot image 1.0 Ähnliche Bilder im Thema

Dataset | Documentation – Google Developers Update
03/03/2022 · Verifying Googlebot and other Google crawlers Large site owner’s guide to managing your crawl budget How HTTP status codes, …
Read more
Datensätze sind einfacher zu finden, wenn Sie unterstützende Informationen wie Name, Beschreibung, Ersteller und Verbreitungsformate als strukturierte Daten bereitstellen
Der Ansatz von Google zur Ermittlung von Datensätzen nutzt schema.org und andere Metadatenstandards, die zu Seiten hinzugefügt werden können, die Datensätze beschreiben
Der Zweck dieses Markups besteht darin, die Erkennung von Datensätzen aus Bereichen wie Biowissenschaften, Sozialwissenschaften, maschinelles Lernen, Bürger- und Regierungsdaten und mehr zu verbessern
Sie können Datasets mit dem Tool Dataset Search suchen
Hinweis: Das tatsächliche Erscheinungsbild in den Suchergebnissen kann davon abweichen
Mit dem Test für Rich-Suchergebnisse können Sie eine Vorschau der meisten Funktionen anzeigen
Hier sind einige Beispiele dafür, was als Dataset gelten kann:
Eine Tabelle oder eine CSV-Datei mit einigen Daten
Eine organisierte Sammlung von Tabellen
Eine Datei in einem proprietären Format, die Daten enthält
Eine Sammlung von Dateien, die zusammen einen aussagekräftigen Datensatz bilden
Ein strukturiertes Objekt mit Daten in einem anderen Format, das Sie möglicherweise zur Verarbeitung in ein spezielles Tool laden möchten
Bilder erfassen Daten
Dateien im Zusammenhang mit maschinellem Lernen, z
B
trainierte Parameter oder Strukturdefinitionen für neuronale Netze
So fügen Sie strukturierte Daten hinzu
Strukturierte Daten sind ein standardisiertes Format, um Informationen über eine Seite bereitzustellen und den Seiteninhalt zu klassifizieren
Wenn strukturierte Daten neu für Sie sind, können Sie mehr darüber erfahren, wie strukturierte Daten funktionieren
Hier finden Sie eine Übersicht darüber, wie Sie strukturierte Daten erstellen, testen und freigeben
Eine Schritt-für-Schritt-Anleitung zum Hinzufügen strukturierter Daten zu einer Webseite finden Sie im Codelab für strukturierte Daten
Löschen eines Datensatzes aus den Ergebnissen der Datensatzsuche
Wenn Sie nicht möchten, dass ein Datensatz in den Ergebnissen der Datensatzsuche angezeigt wird, verwenden Sie das Robots-Meta-Tag, um zu steuern, wie Ihr Datensatz indiziert wird
Beachten Sie, dass es einige Zeit dauern kann (je nach Crawling-Zeitplan Tage oder Wochen), bis die Änderungen in der Datensatzsuche widergespiegelt werden
Unser Ansatz zur Datensatzerkennung
Wir können strukturierte Daten auf Webseiten über Datensätze verstehen, indem wir entweder schema.org-Datensatz-Markup oder äquivalente Strukturen verwenden, die im Data Catalog Vocabulary (DCAT)-Format des W3C dargestellt werden
Wir untersuchen auch die experimentelle Unterstützung für strukturierte Daten auf der Grundlage von W3C CSVW und erwarten, dass wir unseren Ansatz weiterentwickeln und anpassen, wenn sich Best Practices für die Beschreibung von Datensätzen herausbilden
Weitere Informationen zu unserem Ansatz zur Dataset-Erkennung finden Sie unter Erleichtern der Dataset-Erkennung.
Beispiele
Hier ist ein Beispiel für Datasets mit JSON-LD und schema.org-Syntax (bevorzugt) im Test für Rich-Suchergebnisse
Dasselbe schema.org-Vokabular kann auch in RDFa 1.1- oder Microdata-Syntaxen verwendet werden
Sie können auch das DCAT-Vokabular des W3C verwenden, um die Metadaten zu beschreiben
Das folgende Beispiel basiert auf einer realen Datensatzbeschreibung.
JSON-LD Hier ist ein Beispiel für einen Datensatz in JSON-LD:
- < dt>Name:
- ACME Inc Cashflow-Daten
- Identifikatoren:
- https:// doi.org/10.1000/182
- https://identifiers.org/ark:/12345/fk1234
- Beschreibung:
- Jahresabschluss – Konsolidierte Kapitalflussrechnung
- Kategorie:
- Finanzen
- Downloads:
- Name:
- ACME Inc Cashflow-Daten
- https://doi.org/10.1000/182
- https://identifiers.org /ark:/12345/fk1234
- Beschreibung:
- Jahresabschluss – Konzern-Kapitalflussrechnung
- Kategorie:
- Finanzen
- Downloads:
< dt>Identifikatoren:
< /article>
Richtlinien
Websites müssen die Richtlinien für strukturierte Daten befolgen
Zusätzlich zu den Richtlinien für strukturierte Daten empfehlen wir die folgenden Best Practices für Sitemap und Quelle und Herkunft
Best Practices für Sitemaps
Verwenden Sie eine Sitemap-Datei, um Google dabei zu helfen, Ihre URLs zu finden
Die Verwendung von Sitemap-Dateien und sameAs-Markup hilft dabei, zu dokumentieren, wie Datensatzbeschreibungen auf Ihrer Website veröffentlicht werden
Wenn Sie über ein Datensatz-Repository verfügen, haben Sie wahrscheinlich mindestens zwei Arten von Seiten: die kanonischen („Landing“) Seiten für jeden Datensatz und Seiten, die auflisten mehrere Datensätze (z
B
Suchergebnisse oder eine Teilmenge von Datensätzen)
Wir empfehlen, den kanonischen Seiten strukturierte Daten zu einem Datensatz hinzuzufügen
Verwenden Sie die Eigenschaft sameAs, um auf die kanonische Seite zu verlinken, wenn Sie mehreren Kopien des Datensatzes strukturierte Daten hinzufügen, z
B
Auflistungen auf Suchergebnisseiten
Google muss nicht jede Erwähnung desselben Datensatzes explizit markieren, aber wenn Sie dies aus anderen Gründen tun, empfehlen wir dringend die Verwendung von sameAs.
Best Practices für Quelle und Herkunft
Offene Datensätze werden häufig neu veröffentlicht, aggregiert und basieren auf anderen Datensätzen
Dies ist ein erster Überblick über unseren Ansatz zur Darstellung von Situationen, in denen ein Datensatz eine Kopie eines anderen Datensatzes ist oder anderweitig darauf basiert
Verwenden Sie die sameAs-Eigenschaft, um die kanonischsten URLs für das Original anzugeben, wenn der Datensatz oder die Beschreibung dies ist eine einfache Wiederveröffentlichung von Materialien, die an anderer Stelle veröffentlicht wurden
Der Wert von sameAs muss die Identität des Datensatzes eindeutig angeben – mit anderen Worten, verwenden Sie nicht denselben sameAs-Wert für zwei verschiedene Datensätze Wiederveröffentlichung von Materialien, die an anderer Stelle veröffentlicht wurden
Der Wert von muss eindeutig die Identität des Datensatzes angeben – mit anderen Worten, verwenden Sie nicht denselben Wert für zwei verschiedene Datensätze
Verwenden Sie die isBasedOn-Eigenschaft in Fällen, in denen das neu veröffentlichte Dataset (einschließlich seiner Metadaten) erheblich geändert wurde
Die Eigenschaft in Fällen, in denen das erneut veröffentlichte Dataset (einschließlich seiner Metadaten) erheblich geändert wurde
Wenn ein Datensatz von mehreren Originalen abgeleitet oder aggregiert wird, verwenden Sie die isBasedOn-Eigenschaft..-Eigenschaft
Verwenden Sie die Eigenschaft identifier, um relevante Digital Object Identifiers (DOIs) oder Compact Identifiers anzuhängen
Wenn das Dataset mehr als einen Bezeichner hat, wiederholen Sie die Bezeichnereigenschaft
Bei Verwendung von JSON-LD wird dies mithilfe der JSON-Listensyntax dargestellt
Wir hoffen, unsere Empfehlungen basierend auf dem Feedback zu verbessern, insbesondere in Bezug auf die Beschreibung der Herkunft, Versionierung und der mit der Zeitreihenveröffentlichung verbundenen Daten
Bitte beteiligen Sie sich an Community-Diskussionen
Textliche Immobilienempfehlungen
Wir empfehlen, alle Texteigenschaften auf 5000 Zeichen oder weniger zu beschränken
Die Google-Datensatzsuche verwendet nur die ersten 5000 Zeichen einer Text-Property
Namen und Titel bestehen in der Regel aus wenigen Wörtern oder einem kurzen Satz
Bekannte Fehler und Warnungen
Im Testtool für strukturierte Daten von Google und anderen Validierungssystemen werden möglicherweise Fehler oder Warnungen angezeigt
Insbesondere können Validierungssysteme vorschlagen, dass Organisationen Kontaktinformationen haben müssen, einschließlich eines contactType ; Zu den nützlichen Werten gehören Kundenservice, Notfall, Journalist, Nachrichtenredaktion und öffentliches Engagement
Sie können auch Fehler ignorieren, wenn csvw:Table ein unerwarteter Wert für die Eigenschaft mainEntity ist
Definitionen von strukturierten Datentypen
Sie müssen die erforderlichen Eigenschaften angeben, damit Ihre Inhalte als Rich-Suchergebnis angezeigt werden können
Sie können auch die empfohlenen Eigenschaften hinzufügen, um weitere Informationen zu Ihren Inhalten hinzuzufügen, was zu einer besseren Benutzererfahrung führen könnte
Sie können das Testtool für strukturierte Daten verwenden, um Ihr Markup zu validieren ) und Darstellung ihres Inhalts
Datensatz-Metadaten geben beispielsweise an, worum es in dem Datensatz geht, welche Variablen er misst, wer ihn erstellt hat und so weiter
Es enthält beispielsweise keine konkreten Werte für die Variablen.
Dataset
Die vollständige Definition von Dataset ist unter schema.org/Dataset verfügbar
Sie können zusätzliche Informationen zur Veröffentlichung des Datensatzes angeben, z
B
die Lizenz, den Zeitpunkt der Veröffentlichung, seinen DOI oder ein sameAs, das auf eine kanonische Version des Datensatzes in einem anderen Repository verweist
Fügen Sie Bezeichner , Lizenz und sameAs für Datensätze hinzu, die Herkunfts- und Lizenzinformationen bereitstellen
Erforderliche Eigenschaften Beschreibung Text Eine kurze Zusammenfassung, die einen Datensatz beschreibt
Richtlinien Die Zusammenfassung muss zwischen 50 und 5000 Zeichen lang sein
Die Zusammenfassung kann die Markdown-Syntax enthalten
Eingebettete Bilder müssen absolute Pfad-URLs verwenden (anstelle von relativen Pfaden)
Wenn Sie das JSON-LD-Format verwenden, kennzeichnen Sie neue Zeilen mit
(zwei Zeichen: Backslash und Kleinbuchstabe „n“)
name Text Ein beschreibender Name eines Datensatzes
Zum Beispiel „Schneehöhe in der nördlichen Hemisphäre“
Richtlinien Verwenden Sie nach Möglichkeit eindeutige Namen für unterschiedliche Datensätze
Empfohlen: “Schneehöhe in der nördlichen Hemisphäre” und “Schneehöhe in der südlichen Hemisphäre” für zwei verschiedene Datensätze
Nicht empfohlen: „Schneehöhe“ und „Schneehöhe“ für zwei verschiedene Datensätze.
Empfohlene Eigenschaften alternateName Text Alternative Namen, die verwendet wurden, um auf dieses Dataset zu verweisen, wie z
B
Aliase oder Abkürzungen
Beispiel (im JSON-LD-Format): “name”: “The Quick, Draw! Dataset” “alternateName”: [“Quick Draw Dataset”, “quickdraw-dataset”] Ersteller Person oder Organisation Der Ersteller oder Autor dieses Datasets
Um Personen eindeutig zu identifizieren, verwenden Sie ORCID ID als Wert der Eigenschaft sameAs des Typs Person
Um Institutionen und Organisationen eindeutig zu identifizieren, verwenden Sie die ROR-ID
Beispiel (im JSON-LD-Format): “creator”: [ { “@type”: “Person”, “sameAs”: “http://orcid.org/0000-0000-0000-0000”, “givenName”: “Jane”, “familyName”: “Foo”, “name”: “Jane Foo” }, { “@type”: “Person”, “sameAs”: “http://orcid.org/0000-0000-0000 -0001”, “givenName”: “Jo”, “familyName”: “Bar”, “name”: “Jo Bar” }, { “@type”: “Organisation”, “sameAs”: “http://ror. org/xxxxxxxxx”, “name”: “Fictitious Research Consortium” } ] Zitat Text oder kreative Arbeit Kennzeichnet wissenschaftliche Artikel, die vom Datenanbieter zusätzlich zum Datensatz selbst zu zitieren sind
Stellen Sie das Zitat für das Dataset selbst mit anderen Eigenschaften bereit, wie z
Beispielsweise kann diese Eigenschaft eine verwandte wissenschaftliche Veröffentlichung, wie z
B
einen Datendeskriptor, ein Datenpapier oder einen Artikel, für den dieser Datensatz ergänzendes Material ist, eindeutig identifizieren
Beispiele (im JSON-LD-Format): “Zitat”: “https://doi.org/10.1111/111” “Zitat”: “https://identifiers.org/pubmed:11111111” “Zitat”: “https: //identifiers.org/arxiv:0111.1111v1” “citation”: “Doe J (2014) Influence of X. .
https://doi.org/10.1111/111″ Zusätzliche Richtlinien Verwenden Sie diese Eigenschaft nicht, um Zitate bereitzustellen Informationen zum Datensatz selbst
Es soll verwandte wissenschaftliche Artikel identifizieren, nicht den Datensatz selbst
Um Informationen bereitzustellen, die zum Zitieren des Datensatzes selbst erforderlich sind, verwenden Sie stattdessen die Eigenschaften name , Bezeichner , Ersteller und Herausgeber.
, , , und Eigenschaften stattdessen
Wenn Sie die Zitationseigenschaft mit einem Zitations-Snippet füllen, geben Sie nach Möglichkeit die Artikelkennung (z
B
einen DOI) an
Empfohlen: „Doe J (2014) Influence of X
Biomics 1(1)
https://doi.org/10.1111/111“ Nicht empfohlen: „Doe J (2014) Influence of X
Biomics 1(1).“ Geldgeber Person oder Organisation Eine Person oder Organisation, die diesen Datensatz finanziell unterstützt
Um Personen eindeutig zu identifizieren, verwenden Sie ORCID ID als Wert der Eigenschaft sameAs des Typs Person
Um Institutionen und Organisationen eindeutig zu identifizieren, verwenden Sie die ROR-ID
Beispiel (im JSON-LD-Format): “funder”: [ { “@type”: “Person”, “sameAs”: “http://orcid.org/0000-0000-0000-0002”, “givenName”: “Jane”, “familyName”: “Funder”, “name”: “Jane Funder” }, { “@type”: “Organisation”, “sameAs”: “http://ror.org/yyyyyyyyy”, “name “: “Fiktive Finanzierungsorganisation” } ] hasPart oder isPartOf URL oder Datensatz Wenn der Datensatz eine Sammlung kleinerer Datensätze ist, verwenden Sie die hasPart-Eigenschaft, um eine solche Beziehung anzugeben
Umgekehrt, wenn das Dataset Teil eines größeren Datasets ist, verwenden Sie isPartOf
Beide Eigenschaften können die Form einer URL oder einer Dataset-Instanz haben
Falls Dataset als Wert verwendet wird, muss es alle Eigenschaften enthalten, die für ein eigenständiges Dataset erforderlich sind
Beispiele: “hasPart” : [ { “@type”: “Dataset”, “name”: “Sub dataset 01”, “description”: “Informative Beschreibung des ersten Subdatasets…”, “license”: “https: //creativecommons.org/publicdomain/zero/1.0/”, “creator”: { “@type”:”Organisation”, “name”: “Unterdatensatz 01 Ersteller” } }, { “@type”: “Datensatz” , “name”: “Unterdatensatz 02”, “description”: “Informative Beschreibung des zweiten Unterdatensatzes…”, “license”: “https://creativecommons.org/publicdomain/zero/1.0/”, “creator “: { “@type”:”Organisation”, “name”: “Unterdatensatz 02 Ersteller” } } ] “isPartOf” : “https://example.com/aggregate_dataset” Bezeichner URL , Text oder PropertyValue Ein Bezeichner, B
ein DOI oder ein Compact Identifier
Wenn das Dataset mehr als einen Bezeichner hat, wiederholen Sie die Bezeichnereigenschaft
Bei Verwendung von JSON-LD wird dies mithilfe der JSON-Listensyntax dargestellt
isAccessibleForFree Boolean Gibt an, ob auf das Dataset ohne Bezahlung zugegriffen werden kann
keywords Text Schlüsselwörter, die den Datensatz zusammenfassen
Lizenz-URL oder CreativeWork Eine Lizenz, unter der das Dataset vertrieben wird
Zum Beispiel: “Lizenz”: “https://creativecommons.org/publicdomain/zero/1.0/” “Lizenz”: { “@type”: “CreativeWork”, “name”: “Benutzerdefinierte Lizenz”, “url”: “https://example.com/custom_license” } Zusätzliche Richtlinien Geben Sie eine URL an, die eindeutig eine bestimmte Version der verwendeten Lizenz identifiziert
Empfohlene „Lizenz“ : „https://creativecommons.org/licenses/by/4.0“ Nicht empfohlene „Lizenz“ : „https://creativecommons.org/licenses/by“ MeasurementTechnique Text oder URL Die Technik, Technologie oder Methodik in einem Datensatz verwendet, der der/den in variableMeasured beschriebenen Variable(n) entsprechen kann
Die Eigenschaft MeasurementTechnique wird auf schema.org vorgeschlagen und steht zur Standardisierung aus
Wir empfehlen Publishern, Feedback zu dieser Eigenschaft mit der schema.org-Community zu teilen
sameAs URL Die URL einer Referenzwebseite, die eindeutig die Identität des Datensatzes angibt
SpatialCoverage Text oder Ort Sie können einen einzelnen Punkt angeben, der den räumlichen Aspekt des Datensatzes beschreibt
Schließen Sie diese Eigenschaft nur ein, wenn das Dataset eine räumliche Dimension hat
Beispielsweise ein einzelner Punkt, an dem alle Messungen erfasst wurden, oder die Koordinaten eines Begrenzungsrahmens für einen Bereich
Punkte “spatialCoverage:” { “@type”: “Place”, “geo”: { “@type”: “GeoCoordinates”, “latitude”: 39.3280, “longitude”: 120.1633 } } Formen Verwenden Sie GeoShape, um Bereiche unterschiedlicher Art zu beschreiben Formen
Zum Beispiel, um einen Begrenzungsrahmen anzugeben
“spatialCoverage:” { “@type”: “Place”, “geo”: { “@type”: “GeoShape”, “box”: “39.3280 120.1633 40.445 123.7878” } } Punkte innerhalb von box , circle , line oder polygon Eigenschaften müssen als durch Leerzeichen getrenntes Paar von zwei Werten ausgedrückt werden, die Breiten- und Längengrad (in dieser Reihenfolge) entsprechen
Benannte Orte „spatialCoverage:“ „Tahoe City, CA“ temporalCoverage Text Die Daten im Datensatz decken ein bestimmtes Zeitintervall ab
Schließen Sie diese Eigenschaft nur ein, wenn das Dataset eine zeitliche Dimension hat
Schema.org verwendet den ISO 8601-Standard, um Zeitintervalle und Zeitpunkte zu beschreiben
Je nach Dataset-Intervall können Sie Datumsangaben unterschiedlich beschreiben
Geben Sie offene Intervalle mit zwei Dezimalpunkten (.
) an
Einzeldatum „temporalCoverage“ : „2008“ Zeitraum „temporalCoverage“ : „1950-01-01/2013-12-18“ Unbefristeter Zeitraum „temporalCoverage“ : „2013-12-19/..“ VariableMeasured Text or PropertyValue Die Variable, die dieses Dataset misst
Zum Beispiel Temperatur oder Druck
Die VariableMeasured-Eigenschaft wird auf schema.org vorgeschlagen und steht zur Standardisierung aus
Wir empfehlen Publishern, Feedback zu dieser Eigenschaft mit der schema.org-Community zu teilen
version Text oder Nummer Die Versionsnummer für den Datensatz
url URL Speicherort einer Seite, die den Datensatz beschreibt.
Datenkatalog
Die vollständige Definition von DataCatalog ist unter schema.org/DataCatalog verfügbar
Datasets werden häufig in Repositories veröffentlicht, die viele andere Datasets enthalten
Derselbe Datensatz kann in mehr als einem solchen Repository enthalten sein
Sie können auf einen Datenkatalog verweisen, zu dem dieses Dataset gehört, indem Sie direkt darauf verweisen.
Empfohlene Eigenschaften includedInDataCatalog DataCatalog Der Katalog, zu dem das Dataset gehört.
DataDownload
Die vollständige Definition von DataDownload ist unter schema.org/DataDownload verfügbar
Fügen Sie zusätzlich zu den Dataset-Eigenschaften die folgenden Eigenschaften für Datasets hinzu, die Download-Optionen bereitstellen
Die Verteilungseigenschaft beschreibt, wie das Dataset selbst abgerufen wird, da die URL häufig auf die Zielseite verweist, die das Dataset beschreibt
Die Verteilungseigenschaft beschreibt, wo und in welchem Format die Daten abgerufen werden
Diese Eigenschaft kann mehrere Werte haben: Beispielsweise hat eine CSV-Version eine URL und eine Excel-Version ist unter einer anderen verfügbar
Erforderliche Eigenschaften distribution.contentUrl URL Der Link für den Download
Empfohlene Eigenschaften distribution DataDownload Die Beschreibung des Speicherorts zum Herunterladen des Datensatzes und des Dateiformats zum Download
distribution.encodingFormat Text oder URL Das Dateiformat der Distribution
Tabellarische Datensätze
Beta: Dieser Ansatz befindet sich derzeit in der Beta-Phase und kann daher geändert werden
Ein tabellarischer Datensatz ist in erster Linie in Form eines Rasters aus Zeilen und Spalten organisiert
Für Seiten, die tabellarische Datensätze einbetten, können Sie auch ein expliziteres Markup erstellen, das auf dem grundlegenden Ansatz aufbaut
Derzeit verstehen wir eine Variation von CSVW (“CSV on the Web”, siehe W3C), die parallel zu benutzerorientierten tabellarischen Inhalten auf der HTML-Seite bereitgestellt wird
Hier ist ein Beispiel, das eine kleine Tabelle zeigt, die in CSVW JSON-LD codiert ist Format
Es gibt einige bekannte Fehler im Test für Rich-Suchergebnisse.
Überwachen Sie Rich-Suchergebnisse mit der Search Console
Die Search Console ist ein Tool, mit dem Sie überwachen können, wie Ihre Seiten in der Google-Suche abschneiden
Sie müssen sich nicht für die Search Console anmelden, um in die Google-Suchergebnisse aufgenommen zu werden, aber sie kann Ihnen dabei helfen, zu verstehen und zu verbessern, wie Google Ihre Website sieht
Wir empfehlen, die Search Console in den folgenden Fällen zu überprüfen:
Nach der erstmaligen Bereitstellung strukturierter Daten
Nachdem Google Ihre Seiten indexiert hat, suchen Sie mithilfe des entsprechenden Statusberichts für Rich-Suchergebnisse nach Problemen
Im Idealfall gibt es eine Zunahme gültiger Seiten und keine Zunahme von Fehlern oder Warnungen
Wenn Sie Probleme in Ihren strukturierten Daten finden:
Nach der Veröffentlichung neuer Vorlagen oder der Aktualisierung Ihres Codes
Wenn Sie eine Zunahme von Fehlern sehen, haben Sie vielleicht eine neue Vorlage eingeführt, die nicht funktioniert, oder Ihre Website interagiert mit der vorhandenen Vorlage auf neue und schlechte Weise.
, vielleicht haben Sie eine neue Vorlage eingeführt, die nicht funktioniert , oder Ihre Website interagiert auf neue und schlechte Weise mit der vorhandenen Vorlage
Wenn Sie einen Rückgang der gültigen Elemente sehen (nicht mit einer Zunahme der Fehler einhergehen), betten Sie möglicherweise keine strukturierten Daten mehr in Ihre Seiten ein
Verwenden Sie das URL-Prüftool, um herauszufinden, was das Problem verursacht
Warnung: Verwenden Sie keine zwischengespeicherten Links, um Ihre Seiten zu debuggen
Verwenden Sie stattdessen das URL-Inspektionstool, da es über die aktuellste Version Ihrer Seiten verfügt
Regelmäßige Analyse des Datenverkehrs
Fehlerbehebung
Wichtig: Google garantiert nicht, dass Funktionen, die strukturierte Daten verbrauchen, in den Suchergebnissen angezeigt werden
Eine Liste häufiger Gründe, warum Google Ihre Inhalte möglicherweise nicht in einem Rich-Suchergebnis anzeigt, finden Sie in den allgemeinen Richtlinien für strukturierte Daten
Wenn Sie wesentliche Änderungen an Ihrer Website vornehmen, achten Sie auf eine Zunahme von Fehlern und Warnungen zu strukturierten Daten
Analysieren Sie Ihren Google-Suchverkehr mithilfe des Leistungsberichts
Die Daten zeigen Ihnen, wie oft Ihre Seite als Rich-Ergebnis in der Suche erscheint, wie oft Nutzer darauf klicken und an welcher Position Sie in den Suchergebnissen durchschnittlich erscheinen
Sie können diese Ergebnisse auch automatisch mit der Search Console API abrufen
Wenn Sie Probleme beim Implementieren oder Debuggen strukturierter Daten haben, finden Sie hier einige Ressourcen, die Ihnen helfen können
Wenn Sie ein Content-Management-System (CMS) verwenden oder sich jemand anderes um Ihre Website kümmert, bitten Sie ihn um Hilfe
Stellen Sie sicher, dass Sie alle Search Console-Nachrichten, in denen das Problem beschrieben wird, an sie weiterleiten
Bestimmter Datensatz wird nicht in den Ergebnissen der Datensatzsuche angezeigt
error Was das Problem verursacht hat: Ihre Website hat keine strukturierten Daten auf der Seite, die die Datensätze beschreibt, oder die Seite wurde noch nicht gecrawlt.
done Beheben Sie das Problem
Kopieren Sie den Link für die Seite, die Sie voraussichtlich in den Ergebnissen der Datensatzsuche sehen werden, und fügen Sie sie in den Test für Rich-Suchergebnisse ein
Wenn die Meldung „Diese Seite ist nicht für Rich-Suchergebnisse geeignet“ oder „Nicht alle Markups sind für Rich-Suchergebnisse geeignet“ angezeigt wird, bedeutet dies, dass auf der Seite kein Datensatz-Markup vorhanden ist oder sie falsch ist
Sie können es beheben, indem Sie sich auf den Abschnitt Wie man strukturierte Daten hinzufügt beziehen
Wenn auf der Seite Markup vorhanden ist, wurde sie möglicherweise noch nicht gecrawlt
Sie können den Crawling-Status mit der Search Console überprüfen
Das Firmenlogo fehlt oder wird in den Ergebnissen nicht korrekt angezeigt
Fehler Ursache des Problems: Ihrer Seite fehlt möglicherweise das schema.org-Markup für Organisationslogos oder Ihr Unternehmen ist nicht bei Google etabliert
fertig Beheben Sie das Problem
Fastone, il miglior gestore/editor GRATIS di foto al mondo (1°) Update New
Weitere Informationen zum Thema googlebot image 1.0
Con Fastone puoi visualizzare, gestire foto e video, modificare (rimozione occhi rossi, aggiungere testo e didascalie, ritagliare, clone e timbro come Photoshop, ruotare, ridimensionare, regolare colori, aggiungere effetti come filigrana o oscurare volti e altro), dare contemporaneamente diversi comandi a più immagini per velocizzare il lavoro. Tutto in modo GRATUITO.
00:12 Scaricare
00:39 Perchè usarlo?
01:45 Gli eseguibili exe o portable
02:25 Interfaccia grafica
03:24 Scorciatoie da tastiera
03:35 Ritaglio (un esempio)
05:11 Interfaccia grafica del gestore immagini
06:48 Ordinare e filtrare le immagini
07:44 Disegnare
13:15 Clona e pulisci (Timbro clone)
16:44 Regolare colori
18:28 Bordi, cornici e ombreggiature
18:55 Pittura ad olio
19:49 Filigrana (watermark)
20:20 Oscurare (Sfocatura)
21:40 Ridimensionamento
22:40 Azioni su più immagini (Comandi batch)
Se vi va, seguite la mia pagina https://www.facebook.com/beethinformatica/
googlebot image 1.0 Sie können die schönen Bilder im Thema sehen

Chromium — Wikipédia New Update
Chromium est un navigateur web libre développé par l’organisation Chromium Project créée par Google en 2008. Chromium sert de base à plusieurs autres navigateurs, dont certains open-source (Brave, Iridium…) ou certains propriétaires (Vivaldi Browser, Google Chrome, SRWare Iron, Yandex Browser, Opera & Opera GX, Microsoft Edge) [5].Le moteur de rendu de Chromium …
+ ausführliche Artikel hier sehen
Read more
Chromium ist ein Webbrowser, der von der 2008 von Google gegründeten Organisation Chromium Project frei entwickelt wurde
Chromium basiert auf anderen Browsern, die bestimmte Open-Source- (Brave, Iridium…) oder bestimmte Eigenschaften (Vivaldi Browser, Google Chrome , SRWare)
Iron, Yandex Browser, Opera & Opera GX, Microsoft Edge)[5].
Le motor de rendu de Chromium s’appelle Blink
Google ein Ersatz für den Motor de rendu WebKit par Blink depuis
Il permettrait de rendre le navigationur plus stable et plus léger[6],[7]
Er ist kompatibel mit GNU/Linux, Mac OS X und Windows, so ist Chromium ein Multiplateform-Navigationssystem.
Die Erweiterungen von Chrome[8] funktionieren auch mit Chromium[9]
Das ausbeutungsfreie Chromium OS[10] ist ein mit Google Chrome OS kompatibles Projekt
Unterschiede zwischen Chromium und Google Chrome [ Modifikator | Modifikator le code ]
Chromium ist ein Projekt zur Entwicklung des Webbrowsers, auf den Sie sich beziehen, von Google
Bestimmte Benutzer bevorzugen Chromium in Google Chrome, wenn junge Benutzer oder die meisten Google Chrome-Apps im Verhältnis zu Chromium verwendet werden
Iridium[11] ist eine Basis-Oberflächen-Konstante und bildet eine Version „gegoogelt“ von Chromium[12]
Ein weiterer Unterschied besteht darin, dass der Code-Quellcode von Chromium frei zugänglich und modifizierbar ist (contrairement à celui de Google Chrome[15])
Ceci permet d’avoir des déclinaisons de Chromium, zum Beispiel eine Version “portable”[16] für OS X
da Google Chrome unter einer Lizenz propriétaire[18] vertrieben wird
Andere Navigationstasten auf Chromium [Modifikator | Modifikator le code ]
Neben Google Chrome setzen auch die anderen Browser in der Wäsche gerne auf Chromium:
In che modo Googlebot esegue il rendering delle pagine Web? – Martin Splitt Update
Weitere Informationen zum Thema googlebot image 1.0
In this video, Martin Splitt talks about Googlebot’s Javascript Render capabilities. You can use the links below to follow Martin Splitt.
Linkedin: https://www.linkedin.com/in/martinsplitt/
Twitter: https://twitter.com/g33konaut
Twitch: https://www.twitch.tv/g33konaut
The content of this video is owned by Martin Splitt. It has been added to Youtube to reach more people.
Understand how dynamic rendering works
Dynamic rendering requires your webserver to detect crawlers (for example, by checking the user agent). Requests from crawlers are routed to a renderer, requests from users are served normally. Where needed, the dynamic renderer serves a version of the content that’s suitable to the crawler, for example, it may serve a static HTML version. You can choose to enable the dynamic renderer for all pages or on a per-page basis.
Source: https://developers.google.com/search/docs/guides/dynamic-rendering
googlebot image 1.0 Einige Bilder im Thema

Weitere Informationen zum Thema googlebot image 1.0
Updating
Suche zum Thema googlebot image 1.0
Updating
Danke dass Sie sich dieses Thema angesehen haben googlebot image 1.0
Articles compiled by Musicsustain.com. See more articles in category: MMO