Best googlebot image 1.0 New Update

You are viewing this post: Best googlebot image 1.0 New Update

Sie sehen gerade das Thema googlebot image 1.0


百度一下,你就知道 – 110.242.68.4 New

全球领先的中文搜索引擎、致力于让网民更便捷地获取信息,找到所求。百度超过千亿的中文网页数据库,可以瞬间找到相关 …

+ mehr hier sehen

Come testare il file robots txt con Search Console Update

Video unten ansehen

Neue Informationen zum Thema googlebot image 1.0

#iscriviti​​​​​​​​ a Host Academy, più di 1000 video lezioni a solo €49 all’anno, usa il codice coupon: YOUTB01
https://host-academy.it/abbonamento-annuale?coupon_code=YOUTB01
Hai bisogno di un Hosting veloce e sicuro? Scopri le nostre offerte su https://host.it​​​​​​​​

googlebot image 1.0 Einige Bilder im Thema

 Update  Come testare il file robots txt con Search Console
Come testare il file robots txt con Search Console New

The Website Migration Guide: SEO Strategy, Process … – Moz New

07/03/2018 · Building an image XML sitemap will help, but you also need to make sure that Googlebot can reach the site’s images when crawling the site. The tricky part with image indexing is that both the web page where an image appears on as well as the image file itself have to get indexed. Site performance review

+ Details hier sehen

Read more

Die Ansichten des Autors sind ausschließlich seine eigenen (mit Ausnahme des unwahrscheinlichen Falls einer Hypnose) und spiegeln möglicherweise nicht immer die Ansichten von Moz wider

Was ist eine Site-Migration?

Eine Website-Migration ist ein Begriff, der von SEO-Experten allgemein verwendet wird, um jedes Ereignis zu beschreiben, bei dem eine Website wesentliche Änderungen in Bereichen erfährt, die die Sichtbarkeit in Suchmaschinen erheblich beeinflussen können – typischerweise Änderungen am Standort, der Plattform, der Struktur, dem Inhalt, dem Design oder der UX der Website

Googles Dokumentation zu Onsite-Migrationen behandelt sie nicht sehr ausführlich und spielt die Tatsache herunter, dass sie so oft zu erheblichen Traffic- und Umsatzverlusten führen, die von einigen Wochen bis zu mehreren Monaten dauern können – je nachdem, wie stark die Suchmaschinen-Ranking-Signale sind betroffen waren, sowie wie lange es dauern kann, bis das betroffene Unternehmen einen erfolgreichen Wiederherstellungsplan einführt

Schnellzugriffslinks

Checkliste für die Site-Migration (8-seitiges PDF)

Beispiele für Site-Migrationen

Site-Migrationstypen

Häufige Fallstricke bei der Site-Migration

Site-Migrationsprozess

1

Umfang & Planung

2

Vorbereitung vor dem Start

3

Pre-Launch-Tests

4

Tagesaktionen starten

5

Post-Launch-Tests

6

Leistungsbeurteilung

Anhang: Nützliche Tools

Beispiele für Site-Migrationen

Im folgenden Abschnitt wird erläutert, wie sowohl erfolgreiche als auch erfolglose Site-Migrationen aussehen, und erklärt, warum es zu 100 % möglich ist, aus einer Site-Migration herauszukommen, ohne erhebliche Verluste zu erleiden

Den Mythos „erwarteter Traffic-Rückgang“ entlarven

Jeder, der an einer Site-Migration beteiligt war, hat wahrscheinlich die weit verbreitete Theorie gehört, dass dies de facto zu Traffic- und Umsatzverlusten führen wird

Obwohl diese Behauptung für einige sehr spezifische Fälle (z

B

den Wechsel von einer etablierten Domäne zu einer brandneuen) etwas zutrifft, sollte sie nicht als Evangelium behandelt werden

Es ist durchaus möglich, ohne Traffic- oder Umsatzverlust zu migrieren; Sie können sich sogar direkt nach dem Start einer überarbeiteten Website über ein erhebliches Wachstum freuen

Dies kann jedoch nur erreicht werden, wenn jeder einzelne Schritt gut geplant und ausgeführt wurde

Beispiele für erfolglose Site-Migrationen

Die folgende Grafik zeigt die verpfuschte Website-Migration eines großen britischen Einzelhändlers, bei der die Website zwei Wochen nach dem Wechsel von HTTP zu HTTPS 35 % ihrer Sichtbarkeit verlor

Sie brauchten etwa sechs Monate, um sich vollständig zu erholen, was erhebliche Auswirkungen auf die Einnahmen aus der organischen Suche gehabt haben muss

Dies ist ein typisches Beispiel für eine schlechte Site-Migration, die möglicherweise durch schlechte Planung oder Implementierung verursacht wurde

Eine Wiederherstellung ist jedoch möglicherweise nicht immer möglich

Das folgende Sichtbarkeitsdiagramm stammt von einem anderen großen britischen Einzelhändler, bei dem die Umstellung von HTTP auf HTTPS zu einem dauerhaften Sichtbarkeitsverlust von 20 % führte

Tatsächlich ist es durchaus möglich, von HTTP auf HTTPS zu migrieren, ohne so viel Datenverkehr zu verlieren und so lange Zeitraum, abgesehen von den ersten paar Wochen, wo es eine hohe Volatilität gibt, wenn Google die neuen URLs entdeckt und die Suchergebnisse aktualisiert

Beispiele erfolgreicher Site-Migrationen

Wie sieht eine erfolgreiche Site-Migration aus? Dies hängt weitgehend von der Art der Site-Migration, den Zielen und den KPIs ab (mehr Details später)

Aber in den meisten Fällen weist eine erfolgreiche Site-Migration mindestens eines der folgenden Merkmale auf:

Minimaler Sichtbarkeitsverlust in den ersten Wochen (kurzfristiges Ziel) Visibilitätswachstum danach – je nach Art der Migration (langfristiges Ziel)

Der folgende Sichtbarkeitsbericht stammt von einer HTTP-zu-HTTPS-Site-Migration, die auch von erheblichen Verbesserungen der Seitenladezeiten der Site begleitet wurde

Der folgende Sichtbarkeitsbericht stammt von einer vollständigen Site-Überholung, an der ich glücklicherweise mehrere Monate beteiligt war im Vorfeld und unterstützt während der Strategie-, Planungs- und Testphasen, die alle gleichermaßen wichtig waren.

Wie es bei Migrationsprojekten vor Ort üblich ist, musste der Starttermin einige Male verschoben werden, da die Risiken eines vorzeitigen Starts der neuen Website und der vollständigen Behebung größerer technischer Hindernisse bestanden

Aber wie Sie auf dem Sichtbarkeitsdiagramm unten sehen können, hat sich das Warten gelohnt

Die organische Sichtbarkeit ging nicht nur nicht zurück (wie die meisten normalerweise erwarten würden), sondern begann sogar von der ersten Woche an zu wachsen

Das Sichtbarkeitswachstum erreichte einen Monat nach der Migration 60 %, während das organische Traffic-Wachstum zwei Monate nach dem Start 80 % überstieg

.

Dies war eine ziemlich komplexe Migration, da die neue Website neu gestaltet und von Grund auf auf einer neuen Plattform mit einer verbesserten Website-Taxonomie erstellt wurde, die neue Zielseiten, eine aktualisierte URL-Struktur, viele Weiterleitungen zum Erhalt des Link-Eigentums sowie a Umstellung von HTTP auf HTTPS.

Im Allgemeinen kann es schwierig sein, zu viele Änderungen gleichzeitig einzuführen, denn wenn etwas schief geht, werden Sie Schwierigkeiten haben, herauszufinden, was genau schuld ist

Gleichzeitig ist es jedoch auch nicht ideal, größere Änderungen für einen späteren Zeitpunkt aufzuheben, da dies mehr Ressourcen erfordert

Wenn Sie wissen, was Sie tun, kann es sehr kosteneffektiv sein, mehrere positive Änderungen auf einmal vorzunehmen wichtigsten Site-Migrationstypen und erklären die Hauptgründe, warum so viele Site-Migrationen fehlschlagen.

Site-Migrationstypen

Es gibt viele Site-Migrationstypen

Es hängt alles von der Art der Änderungen ab, die stattfinden

Die Dokumentation von Google behandelt hauptsächlich Migrationen mit Standortänderungen, die wie folgt kategorisiert werden:

Site verschiebt sich mit URL-Änderungen

Site verschiebt sich ohne URL-Änderungen

Standortverschiebungsmigrationen

Diese treten normalerweise auf, wenn eine Website aus einem der folgenden Gründe zu einer anderen URL wechselt:

Protokolländerung

Ein klassisches Beispiel ist die Migration von HTTP zu HTTPS

Änderung der Subdomain oder des Unterordners

Sehr verbreitet in der internationalen SEO, wenn ein Unternehmen beschließt, eine oder mehrere ccTLDs in Subdomains oder Unterordner zu verschieben

Ein weiteres häufiges Beispiel ist, dass eine mobile Website, die sich auf einer separaten Subdomain oder einem separaten Unterordner befindet, responsiv wird und sowohl Desktop- als auch mobile URLs vereinheitlicht werden

Änderung des Domainnamens

Tritt häufig auf, wenn ein Unternehmen ein Rebranding durchführt und von einer Domäne zu einer anderen wechseln muss

Änderung der Top-Level-Domain

Dies ist üblich, wenn ein Unternehmen beschließt, internationale Websites zu starten und von einer ccTLD (Ländercode-Top-Level-Domain) zu einer gTLD (generische Top-Level-Domain) oder umgekehrt wechseln muss, z

Wechsel von. co.uk zu. com oder Wechsel von. com zu. co.uk und so weiter

Änderungen der Site-Struktur

Dies sind Änderungen an der Site-Architektur, die sich normalerweise auf die interne Verlinkung und URL-Struktur der Site auswirken

Andere Arten von Migrationen

Es gibt andere Arten der Migration, die durch Änderungen am Inhalt, der Struktur, dem Design oder der Plattform der Website ausgelöst werden

Replatforming

Dies ist der Fall, wenn eine Website von einer Plattform/CMS auf eine andere umgezogen wird, z

Migration von WordPress zu Magento oder einfach ein Upgrade auf die neueste Plattformversion

Ein Plattformwechsel kann in einigen Fällen auch zu Design- und URL-Änderungen aufgrund technischer Einschränkungen führen, die häufig beim Plattformwechsel auftreten

Aus diesem Grund führen Re-Platforming-Migrationen selten zu einer Website, die genauso aussieht wie die vorherige

Inhaltsmigrationen

Größere Inhaltsänderungen wie das Umschreiben von Inhalten, die Konsolidierung von Inhalten oder die Bereinigung von Inhalten können je nach Ausmaß große Auswirkungen auf die Sichtbarkeit einer Website in der organischen Suche haben

Diese Änderungen können sich oft auf die Taxonomie, Navigation und interne Verlinkung der Website auswirken

Änderungen bei der Einrichtung von Mobilgeräten

Bei so vielen verfügbaren Optionen für die mobile Einrichtung einer Website kann das Verschieben, Aktivieren der App-Indexierung, Erstellen einer AMP-Website oder Erstellen einer PWA-Website auch als teilweise Website-Migration betrachtet werden, insbesondere wenn eine vorhandene mobile Website durch eine App, AMP, ersetzt wird

oder PWA

Strukturelle Veränderungen

Diese werden häufig durch größere Änderungen an der Taxonomie der Website verursacht, die sich auf die Website-Navigation, die interne Verlinkung und die Benutzerwege auswirken

Website-Neugestaltungen

Diese können von größeren Designänderungen im Aussehen und Verhalten bis hin zu einer vollständigen Website-Überarbeitung variieren, die auch erhebliche Medien-, Code- und Textänderungen umfassen kann

Hybride Migrationen

Darüber hinaus gibt es mehrere hybride Migrationstypen, die praktisch beliebig kombiniert werden können

Je mehr Änderungen gleichzeitig eingeführt werden, desto höher sind die Komplexität und die Risiken

Auch wenn zu viele Änderungen gleichzeitig das Risiko erhöhen, dass etwas schief geht, kann es aus Ressourcensicht kostengünstiger sein, wenn die Migration sehr gut geplant und durchgeführt wird

Häufige Fallstricke bei der Standortmigration

Obwohl jede Site-Migration anders ist, gibt es einige gemeinsame Themen hinter den typischsten Site-Migrations-Katastrophen, wobei die größten die folgenden sind:

Schlechte Strategie

Einige Website-Migrationen sind zum Scheitern verurteilt, lange bevor die neue Website gestartet wird

Eine Strategie, die auf unklaren und unrealistischen Zielen aufbaut, bringt viel weniger Erfolg

Die Festlegung messbarer Ziele ist unerlässlich, um die Auswirkungen der Migration nach der Einführung zu messen

Bei den meisten Site-Migrationen sollte das Hauptziel die Beibehaltung des aktuellen Traffic- und Umsatzniveaus der Site sein

In bestimmten Fällen könnte die Messlatte höher gelegt werden, aber im Allgemeinen sollte die Antizipation oder Prognose von Wachstum ein sekundäres Ziel sein

Dies hilft, unrealistische Erwartungen zu vermeiden

Schlechte Planung

Wenn Sie so früh wie möglich einen detaillierten Projektplan erstellen, können Sie Verzögerungen vermeiden

Berücksichtigen Sie zusätzliche Zeit und Ressourcen, um mit eventuell auftretenden unvorhergesehenen Umständen fertig zu werden

Egal wie gut durchdacht und detailliert Ihr Plan ist, es ist höchst unwahrscheinlich, dass alles wie erwartet verläuft

Seien Sie flexibel mit Ihrem Plan und akzeptieren Sie die Tatsache, dass es mit ziemlicher Sicherheit zu Verzögerungen kommen wird

Stellen Sie alle Abhängigkeiten dar und machen Sie alle Beteiligten darauf aufmerksam

Planen Sie nicht, die Website in der Nähe Ihrer saisonalen Spitzenzeiten zu starten, denn wenn etwas schief geht, haben Sie nicht genug Zeit, um die Probleme zu beheben

Einzelhändler sollten es beispielsweise vermeiden, eine Website kurz vor September/Oktober zu starten, um die geschäftige Vorweihnachtszeit nicht zu gefährden

In diesem Fall wäre es viel klüger, es in den ruhigeren Sommermonaten zu starten

Mangel an Ressourcen

Bevor Sie sich zu einem Site-Migrationsprojekt verpflichten, schätzen Sie den Zeit- und Arbeitsaufwand ein, der erforderlich ist, um es zum Erfolg zu führen

Wenn Ihr Budget begrenzt ist, rufen Sie an, ob es sich lohnt, eine Migration durchzuführen, die wahrscheinlich die festgelegten Ziele nicht erreichen und zu Umsatzeinbußen führen wird

Versuchen Sie als Faustregel, einen Puffer von mindestens einzuplanen 20 % zusätzliche Ressourcen, als Sie ursprünglich für das Projekt erwarten

Dieser zusätzliche Puffer ermöglicht es Ihnen später, alle Probleme schnell zu beheben, sobald sie auftreten, ohne den Erfolg zu gefährden

Wenn Ihre Ressourcen zu knapp sind oder Sie zu diesem frühen Zeitpunkt anfangen, Abstriche zu machen, ist die Site-Migration gefährdet

Fehlende SEO/UX-Beratung

Wenn Änderungen auf einer Website stattfinden, muss jede einzelne Entscheidung sowohl aus UX- als auch aus SEO-Sicht gewichtet werden

Beispielsweise kann das Entfernen großer Mengen von Inhalten oder Links zur Verbesserung der UX die Fähigkeit der Website beeinträchtigen, auf geschäftskritische Keywords abzuzielen, oder zu Crawling- und Indexierungsproblemen führen

In beiden Fällen könnten solche Änderungen die Sichtbarkeit der Website in der organischen Suche beeinträchtigen

Auf der anderen Seite kann sich zu viel Text und zu wenige Bilder negativ auf die Benutzerinteraktion auswirken und die Conversions der Website beeinträchtigen

Um Risiken zu vermeiden, beauftragen Sie erfahrene SEO- und UX-Berater, damit sie die möglichen Folgen jeder einzelnen Änderung besprechen können wichtige geschäftliche Stakeholder, die die geschäftlichen Feinheiten besser verstehen als jeder andere

Die Vor- und Nachteile jeder Option müssen abgewogen werden, bevor eine Entscheidung getroffen wird

Spätes Engagement

Site-Migrationen können sich über mehrere Monate erstrecken, erfordern eine gute Planung und genügend Zeit zum Testen

Es ist sehr riskant, zu spät professionelle Unterstützung zu suchen, da wichtige Schritte möglicherweise ausgelassen wurden

Fehlende Tests

Neben einer großartigen Strategie und einem durchdachten Plan sollten Sie vor dem Start der Website etwas Zeit und Mühe für gründliche Tests aufwenden

Es ist viel besser, den Start zu verzögern, wenn beim Testen kritische Probleme festgestellt wurden, anstatt eine lückenhafte Implementierung in die Produktion zu überstürzen

Es versteht sich von selbst, dass Sie keine Website starten sollten, wenn sie nicht sowohl von erfahrenen SEO- als auch von UX-Teams getestet wurde

Auch die Liebe zum Detail ist sehr wichtig

Stellen Sie sicher, dass sich die Entwickler der Risiken bewusst sind, die mit einer schlechten Implementierung verbunden sind

Die Aufklärung der Entwickler über die direkten Auswirkungen ihrer Arbeit auf den Traffic einer Website (und damit auf den Umsatz) kann einen großen Unterschied machen

Langsame Reaktion auf Fehlerbehebung

Es wird immer Fehler geben, die behoben werden müssen, sobald die neue Seite live geht

Einige Fehler sind jedoch wichtiger als andere und müssen möglicherweise sofort behoben werden

Wenn Sie beispielsweise eine neue Website starten, nur um festzustellen, dass Suchmaschinen-Spider Probleme beim Crawlen und Indizieren des Inhalts der Website haben, wäre eine sofortige Lösung erforderlich

Eine langsame Reaktion auf große technische Hindernisse kann manchmal katastrophal sein und es kann lange dauern, bis man sich davon erholt

Unterschätzung des Ausmaßes

Geschäftsbeteiligte gehen oft nicht davon aus, dass Standortmigrationen so zeitaufwändig und ressourcenintensiv sind

Es ist nicht ungewöhnlich, dass hochrangige Interessengruppen verlangen, dass die neue Website am geplanten Tag gestartet wird, unabhängig davon, ob sie zu 100 % fertig ist oder nicht

Das Motto „Lasst uns so schnell wie möglich starten und später reparieren“ ist ein klassischer Fehler

Was den meisten Interessengruppen nicht bewusst ist, ist, dass es nur wenige Tage dauern kann, bis die organische Suche sichtbar ist, aber die Wiederherstellung kann mehrere Monate dauern

Es liegt in der Verantwortung des Beraters und Projektmanagers, Kunden zu schulen und sie durch all die anderen zu führen Phasen und Szenarien und erklären Sie, was jedes einzelne im Detail beschreibt

Unternehmensbeteiligte sind dann in der Lage, fundiertere Entscheidungen zu treffen, und ihre Erwartungen sollten einfacher zu handhaben sein

Site-Migrationsprozess

Der Site-Migrationsprozess kann in sechs wesentliche Hauptphasen unterteilt werden

Sie sind alle gleich wichtig und das Überspringen einer der folgenden Aufgaben könnte den Erfolg der Migration in unterschiedlichem Maße verhindern

Phase 1: Umfang und Planung

Arbeiten Sie außerhalb des Projektumfangs

Unabhängig von den Gründen für ein Site-Migrationsprojekt müssen Sie sich von Anfang an über die Ziele im Klaren sein, da diese dazu beitragen, Erwartungen festzulegen und zu verwalten

Das Verschieben einer Website von HTTP auf HTTPS unterscheidet sich stark von einer vollständigen Website-Überholung, daher sollten die beiden unterschiedliche Ziele haben

In erster Linie sollte das Ziel darin bestehen, das Traffic-Niveau der Website beizubehalten, während Sie in zweiter Linie potenziell auf Wachstum abzielen könnten

Eine Website-Migration ist eine großartige Gelegenheit, um alte Probleme anzugehen

Es sollte sehr kosteneffektiv sein, so viele davon wie möglich in den Projektumfang einzubeziehen, da die Behebung dieser Probleme nach dem Start erheblich mehr Ressourcen erfordern wird

Identifizieren Sie jedoch in jedem Fall die kritischsten Aspekte für den Erfolg des Projekts

Identifizieren Sie alle Risiken, die sich negativ auf die Sichtbarkeit der Website auswirken könnten, und überlegen Sie, welche Vorkehrungen zu treffen sind

Bereiten Sie idealerweise einige Prognoseszenarien vor, die auf den verschiedenen Risiken und Wachstumschancen basieren

Es versteht sich von selbst, dass die Prognoseszenarien von erfahrenen Standortmigrationsberatern erstellt werden sollten.

Die Einbeziehung so vieler Stakeholder wie möglich in diesem frühen Stadium wird Ihnen helfen, ein tieferes Verständnis für die größten Herausforderungen und Chancen in allen Bereichen zu erlangen

Bitten Sie Ihre Content-, SEO-, UX- und Analytics-Teams um Feedback und stellen Sie eine Liste der größten Probleme und Chancen zusammen

Sie müssen dann herausfinden, wie hoch der potenzielle ROI wäre, wenn Sie sich mit jedem dieser Punkte befassen

Wählen Sie schließlich eine der verfügbaren Optionen basierend auf Ihren Zielen und verfügbaren Ressourcen aus, die Ihre Site-Migrationsstrategie bilden werden

Sie sollten nun eine priorisierte Liste von Aktivitäten haben, von denen erwartet wird, dass sie einen positiven ROI haben, wenn sie implementiert werden

Diese sollten dann mit allen Beteiligten kommuniziert und besprochen werden, damit Sie von Anfang an realistische Ziele setzen, sich auf das Projekt und den Umfang einigen und die richtigen Erwartungen setzen

Erstellen Sie den Projektplan

Die Planung ist ebenso wichtig, da Standortmigrationen oft sehr komplexe Projekte sein können, die sich leicht über mehrere Monate erstrecken können

Während der Planungsphase benötigt jede Aufgabe einen Eigentümer (z

B

SEO-Berater, UX-Berater, Inhaltsredakteur, Webentwickler) und ein voraussichtliches Lieferdatum

Jegliche Abhängigkeiten sollten identifiziert und in den Projektplan aufgenommen werden, damit jeder weiß, welche Aktivitäten aufgrund der Abhängigkeit von anderen nicht ausgeführt werden können

Beispielsweise können die Redirects erst getestet werden, wenn das Redirect-Mapping abgeschlossen und die Redirects beim Staging implementiert wurden

Der Projektplan sollte so früh wie möglich mit allen Beteiligten geteilt werden, damit genügend Zeit für Diskussionen und Klärungen bleibt

Jede Aktivität muss sehr detailliert beschrieben werden, damit die Beteiligten wissen, was jede Aufgabe mit sich bringen würde

Es versteht sich von selbst, dass ein tadelloses Projektmanagement notwendig ist, um die erforderlichen Aktivitäten termingerecht zu organisieren und durchzuführen

Ein entscheidender Teil des Projektplans ist die richtige Festlegung des voraussichtlichen Starttermins

Idealerweise sollte die neue Website zu einer Zeit gestartet werden, in der der Verkehr gering ist

Vermeiden Sie es erneut, vor oder während einer Spitzenzeit zu starten, da die Folgen verheerend sein könnten, wenn die Dinge nicht wie erwartet laufen

Dabei ist zu beachten, dass Standortmigrationen nie ganz nach Plan verlaufen und ein gewisses Maß an Flexibilität erforderlich ist

Phase 2: Vorbereitung vor dem Start

Dazu gehören alle Aktivitäten, die durchgeführt werden müssen, während sich die neue Website noch in der Entwicklung befindet

Zu diesem Zeitpunkt sollten die SEO-Anforderungen der neuen Website bereits erfasst sein

Sie sollten mit den Designern und Informationsarchitekten zusammenarbeiten und Feedback zu Prototypen und Wireframes geben, lange bevor die neue Site in einer Staging-Umgebung verfügbar wird

Wireframes-Überprüfung

Überprüfen Sie die Prototypen oder Wireframes der neuen Website, bevor Sie mit der Entwicklung beginnen

Die Überprüfung der Hauptvorlagen der neuen Website kann dazu beitragen, sowohl SEO- als auch UX-Probleme frühzeitig zu erkennen

Beispielsweise stellen Sie möglicherweise fest, dass große Teile des Inhalts von den Kategorieseiten entfernt wurden, was sofort gekennzeichnet werden sollte

Oder Sie stellen möglicherweise fest, dass einige stark frequentierte Seiten nicht mehr in der Hauptnavigation angezeigt werden

Alle radikalen Änderungen im Design oder in der Kopie der Seiten sollten gründlich auf potenzielle SEO-Probleme überprüft werden

Erstellung der technischen SEO-Spezifikationen

Nachdem die Prototypen und Wireframes überprüft wurden, bereiten Sie eine detaillierte technische SEO-Spezifikation vor

Das Ziel dieses wichtigen Dokuments ist es, alle wesentlichen SEO-Anforderungen zu erfassen, die Entwickler kennen müssen, bevor sie den Umfang des Projekts in Bezug auf Arbeit und Kosten ausarbeiten

In dieser Phase werden die Budgets abgesegnet; Wenn die SEO-Anforderungen nicht enthalten sind, ist es möglicherweise unmöglich, sie später einzubeziehen

Die technische SEO-Spezifikation muss sehr detailliert und dennoch so geschrieben sein, dass Entwickler die Anforderungen leicht in Maßnahmen umsetzen können

Dies ist kein Dokument, um zu erklären, warum etwas implementiert werden muss, sondern wie es implementiert werden sollte.

Stellen Sie sicher, dass spezifische Anforderungen enthalten sind, die mindestens die folgenden Bereiche abdecken:

URL-Struktur

Metadaten (einschließlich dynamisch generierter Standardwerte)

Strukturierte Daten

Canonicals- und Meta-Roboter-Direktiven

Kopieren & Überschriften

Haupt- und Nebennavigation

Interne Verlinkung (in jeglicher Form)

Seitennummerierung

XML-Sitemap(s)

HTML-Sitemap

Hreflang (wenn es internationale Seiten gibt)

Mobile Einrichtung (einschließlich der App, AMP- oder PWA-Site)

Weiterleitungen

Benutzerdefinierte 404-Seite

JavaScript-, CSS- und Bilddateien

Seitenladezeiten (für Desktop & Mobile)

Die Spezifikation sollte auch Bereiche der CMS-Funktionalität umfassen, die es Benutzern ermöglichen:

Geben Sie benutzerdefinierte URLs an und überschreiben Sie Standard-URLs

Seitentitel aktualisieren

Aktualisieren Sie Meta-Beschreibungen

Aktualisieren Sie alle h1–h6-Überschriften

Fügen Sie das standardmäßige kanonische Tag hinzu oder ändern Sie es

Setzen Sie die Meta-Roboter-Attribute auf index/noindex/follow/nofollow

Fügen Sie den alten Text jedes Bildes hinzu oder bearbeiten Sie ihn

Schließen Sie Open Graph-Felder für Beschreibung, URL, Bild, Typ, Sitename ein

Fügen Sie Twitter Open Graph-Felder für Karte, URL, Titel, Beschreibung und Bild hinzu

Bulk-Upload oder Weiterleitungen ändern

Aktualisieren Sie die robots.txt-Datei

Es ist auch wichtig sicherzustellen, dass bei der Aktualisierung eines bestimmten Attributs (z

B

ein h1) andere Elemente nicht betroffen sind (z

B

der Seitentitel oder etwaige Navigationsmenüs)

Identifizieren von Prioritätsseiten

Eine der größten Herausforderungen bei Website-Migrationen besteht darin, dass der Erfolg weitgehend von der Quantität und Qualität der migrierten Seiten abhängt

Daher ist es sehr wichtig sicherzustellen, dass Sie sich auf die Seiten konzentrieren, die wirklich wichtig sind

Dies sind die Seiten, die den Traffic auf die alte Website gelenkt haben, Seiten mit angesammelten Links, Seiten, die gut konvertiert werden usw

Um dies zu tun, müssen Sie:

Crawlen Sie die alte Website

Identifizieren Sie alle indexierbaren Seiten

Identifizieren Sie Seiten mit der besten Leistung

So crawlen Sie die Legacy-Site

Crawlen Sie die alte Website, damit Sie eine Kopie aller URLs, Seitentitel, Metadaten, Kopfzeilen, Weiterleitungen, defekten Links usw

haben

Stellen Sie unabhängig von der Crawler-Anwendung Ihrer Wahl (siehe Anhang) sicher, dass das Crawlen nicht zu restriktiv ist

Achten Sie genau auf die Einstellungen des Crawlers, bevor Sie die alte Website crawlen, und überlegen Sie, ob Sie Folgendes tun sollten:

Ignorieren Sie robots.txt (falls wichtige Teile versehentlich blockiert werden)

Folgen Sie internen „nofollow“-Links (damit der Crawler mehr Seiten erreicht)

Crawlen Sie alle Subdomains (je nach Umfang)

Außerhalb des Startordners crawlen (je nach Umfang)

Ändern Sie den User-Agent in Googlebot (Desktop)

Ändern Sie den User-Agent in Googlebot (Smartphone)

Profi-Tipp: Bewahren Sie eine Kopie der Crawling-Daten der alten Website (in einer Datei oder in der Cloud) für mehrere Monate nach Abschluss der Migration auf, nur für den Fall, dass Sie jemals Daten der alten Website benötigen, nachdem die neue Website online gegangen ist.

Wie man die indexierbaren Seiten identifiziert

Arbeiten Sie nach Abschluss des Crawlings daran, die indexierten Seiten der alten Website zu identifizieren

Dies sind beliebige HTML-Seiten mit folgenden Merkmalen:

Geben Sie eine 200-Serverantwort zurück

Sie haben entweder kein kanonisches Tag oder eine auf sich selbst verweisende kanonische URL

Haben Sie keinen Meta-Roboter noindex

werden nicht aus der robots.txt-Datei ausgeschlossen

Sind intern von anderen Seiten verlinkt (nicht verwaiste Seiten)

Die indexierbaren Seiten sind die einzigen Seiten, die das Potenzial haben, Traffic auf die Website zu lenken, und müssen daher für die Zwecke Ihrer Website-Migration priorisiert werden

Dies sind die Seiten, die es wert sind, optimiert zu werden (wenn sie auf der neuen Website vorhanden sind) oder umzuleiten (wenn sie auf der neuen Website nicht vorhanden sind)

So identifizieren Sie die leistungsstärksten Seiten

Sobald Sie alle indexierbaren Seiten identifiziert haben, müssen Sie möglicherweise mehr Arbeit leisten, insbesondere wenn die alte Website aus einer großen Anzahl von Seiten besteht und eine Optimierung oder Weiterleitung aller Seiten aufgrund von Zeit-, Ressourcen- oder technischen Einschränkungen nicht möglich ist

Wenn dies der Fall ist, sollten Sie die leistungsstärksten Seiten der alten Website ermitteln

Dies hilft bei der Priorisierung der Seiten, auf die Sie sich in späteren Phasen konzentrieren müssen.

Es wird empfohlen, eine Tabelle mit den folgenden Feldern zu erstellen:

Legacy-URL (nur die indexierbaren aus den Craw-Daten einbeziehen)

Organische Besuche in den letzten 12 Monaten (Analytics)

Umsatz, Conversions und Conversion-Rate während der letzten 12 Monate (Analytics)

Seitenaufrufe während der letzten 12 Monate (Analytics)

Anzahl der Klicks in den letzten 90 Tagen (Search Console)

Am häufigsten verlinkte Seiten (Majestic SEO/Ahrefs)

Mit den oben genannten Informationen an einem Ort ist es jetzt viel einfacher, Ihre wichtigsten Seiten zu identifizieren: diejenigen, die organische Besuche generieren, gut konvertieren, zum Umsatz beitragen, eine große Anzahl von verweisenden Domains haben, die auf sie verlinken, usw

Dies sind die Seiten auf die Sie sich für eine erfolgreiche Website-Migration konzentrieren müssen

Die leistungsstärksten Seiten sollten idealerweise auch auf der neuen Website vorhanden sein

Wenn sie dies aus irgendeinem Grund nicht tun, sollten sie auf die relevanteste Seite umgeleitet werden, damit Benutzer, die sie anfordern, nicht auf 404-Seiten landen und der Linkwert, den sie zuvor hatten, auf der Website verbleibt

Wenn eine dieser Seiten nicht mehr existiert und nicht richtig umgeleitet wird, werden die Rankings und der Traffic Ihrer Website negativ beeinflusst.

Benchmarking

Sobald der Start der neuen Website naht, sollten Sie die Leistung der alten Website bewerten

Benchmarking ist unerlässlich, nicht nur um die Leistung der neuen Website mit der vorherigen zu vergleichen, sondern auch um zu diagnostizieren, welche Bereiche auf der neuen Website unterdurchschnittlich abschneiden, und um diese schnell anzugehen

Keyword-Rang-Tracking

Wenn Sie die Platzierungen der Website nicht häufig verfolgen, sollten Sie dies tun, kurz bevor die neue Website online geht

Andernfalls werden Sie später Schwierigkeiten haben, herauszufinden, ob die Migration reibungslos verlaufen ist oder wo genau etwas schief gelaufen ist

Verschieben Sie dies nicht bis zur letzten Minute, falls etwas schief geht – eine Woche im Voraus wäre der ideale Zeitpunkt

Verbringen Sie etwas Zeit damit, herauszufinden, welche Schlüsselwörter am repräsentativsten für die Sichtbarkeit der Website in der organischen Suche sind, und verfolgen Sie sie über Desktop und Mobilgerät

Da die Überwachung von Tausenden von Head-, Mid- und Long-Tail-Keyword-Kombinationen normalerweise unrealistisch ist, sollten Sie als absolutes Minimum Keywords überwachen, die den Traffic auf die Website lenken (Keywords ranken auf Seite eins) und ein angemessenes Suchvolumen haben (Head/Mid-Tail -Schwanzfokus)

Wenn Sie Traffic sowohl von Marken- als auch von Nicht-Marken-Keywords erhalten, sollten Sie auch entscheiden, auf welche Art von Keywords Sie sich bei einem Tracking-POV mehr konzentrieren möchten

Im Allgemeinen neigen Nicht-Marken-Keywords dazu, wettbewerbsfähiger und volatiler zu sein

Für die meisten Websites wäre es sinnvoll, sich hauptsächlich auf diese zu konzentrieren

Vergessen Sie nicht, die Rankings auf Desktop- und Mobilgeräten zu verfolgen

Dies macht es viel einfacher, Probleme nach dem Start zu diagnostizieren, falls es bei einem Gerätetyp Leistungsprobleme geben sollte

Wenn Sie ein hohes Traffic-Volumen aus mehr als einem Land erhalten, ziehen Sie die Rangverfolgung von Schlüsselwörtern auch in anderen Märkten in Betracht, da Sichtbarkeit und Rankings von Land zu Land erheblich variieren können

Leistung der Website

Die Seitenladezeiten der neuen Website können einen großen Einfluss sowohl auf den Traffic als auch auf den Umsatz haben

Mehrere Studien haben gezeigt, dass die Absprungrate umso höher ist, je länger das Laden einer Seite dauert

Wenn die Seitenladezeiten und Seitenleistungsbewertungen der alten Website nicht aufgezeichnet wurden, wird es sehr schwierig sein, Verkehrs- oder Umsatzverluste Problemen im Zusammenhang mit der Websiteleistung zuzuschreiben, sobald die neue Website online gegangen ist

Es wird empfohlen, dass Sie alle wichtigen Seitentypen überprüfen mit den Tools PageSpeed ​​Insights und Lighthouse von Google

Sie können Übersichtstabellen wie die untenstehende verwenden, um einige der wichtigsten Leistungsmetriken zu bewerten, die für Vergleiche nützlich sein werden, sobald die neue Website online geht /100 Kategorieseite Langsam 1,8 s 5,1 s Mittel 78/100 Unterkategorieseite Durchschnitt 0,9 s 2,4 s Mittel 69/100 Produktseite Langsam 1,9 s 5,5 s Gut 83/100

DESKTOP Geschwindigkeit FCP DCL Optimierung Optimierungsergebnis Startseite Gut 0,7 s 1,4 s Durchschnitt 81/100 Kategorieseite Schnell 0,6 s 1,2 s Mittel 78/100 Unterkategorieseite Schnell 0,6 s 1,3 s Mittel 78/100 Produktseite Gut 0,8 s 1,3 s Gut 83 /100

Alte Website-Crawling-Daten

Führen Sie einige Tage, bevor die neue Website die alte ersetzt, einen letzten Crawl der alten Website durch

Dies könnte sich später als unschätzbar erweisen, wenn es Optimierungsprobleme auf der neuen Website geben sollte

Ein letzter Crawl ermöglicht es Ihnen, wichtige Informationen über die Seitentitel der alten Website, Meta-Beschreibungen, h1–h6-Überschriften, Serverstatus, kanonische Tags, Noindex/Nofollow-Seiten, Inlinks/Outlinks, Level usw

zu speichern ersparen Ihnen viel Ärger, wenn die neue Website beispielsweise nicht gut optimiert ist oder unter technischen Fehlkonfigurationsproblemen leidet

Versuchen Sie auch, eine Kopie der robots.txt- und XML-Sitemaps der alten Website zu speichern, falls Sie diese später benötigen

Search Console-Daten

Erwägen Sie auch, so viele Search Console-Daten der alten Website wie möglich zu exportieren

Diese sind nur 90 Tage lang verfügbar, und es besteht die Möglichkeit, dass die Search Console-Daten der alten Website früher oder später verschwinden, sobald die neue Website live geht

Daten, die es wert sind, exportiert zu werden, umfassen:

Suchanalyseabfragen und -seiten

Crawl-Fehler

blockierte Ressourcen

Probleme mit der mobilen Nutzbarkeit

URL-Parameter

Strukturierte Datenfehler

Links zu Ihrer Website

Intern links

Indexstatus

Weiterleitungsvorbereitung

Die Implementierung von Weiterleitungen ist eine der wichtigsten Aktivitäten während einer Site-Migration

Wenn die URLs der alten Website nicht mehr existieren und nicht korrekt umgeleitet werden, sinken Ranking und Sichtbarkeit der Website einfach

Warum sind Weiterleitungen bei Website-Migrationen wichtig? Weiterleitungen sind äußerst wichtig, da sie sowohl Suchmaschinen als auch Benutzern helfen, Seiten zu finden, die möglicherweise nicht mehr existieren, umbenannt oder an einen anderen Ort verschoben wurden

Aus SEO-Sicht helfen Weiterleitungen Suchmaschinen dabei, die neuen URLs einer Website schneller zu entdecken und zu indizieren, aber auch zu verstehen, wie die Seiten der alten Website mit den Seiten der neuen Website verknüpft sind

Diese Zuordnung ermöglicht es, dass Ranking-Signale von den alten Seiten auf die neuen übertragen werden, sodass Rankings erhalten bleiben, ohne negativ beeinflusst zu werden

Was passiert, wenn Weiterleitungen nicht korrekt implementiert werden? Wenn Umleitungen schlecht implementiert sind, können die Folgen katastrophal sein

Benutzer landen entweder auf nicht gefundenen Seiten (404s) oder irrelevanten Seiten, die nicht der Benutzerabsicht entsprechen

In beiden Fällen werden die Absprung- und Konversionsraten der Website negativ beeinflusst

Die Folgen für Suchmaschinen können ebenso katastrophal sein: Sie können die Seiten der alten Site nicht mit denen der neuen Site verknüpfen, wenn die URLs nicht identisch sind

Ranking-Signale werden nicht von der alten auf die neue Website übertragen, was zu einem Rückgang des Rankings und einem Verlust der Sichtbarkeit in der organischen Suche führt

Außerdem werden Suchmaschinen länger brauchen, um die Seiten der neuen Website zu entdecken und zu indizieren

301, 302, JavaScript-Umleitungen oder Meta-Aktualisierung?

Wenn die URLs zwischen der alten und der neuen Version der Website unterschiedlich sind, verwenden Sie 301 (permanente) Weiterleitungen

Diese weisen Suchmaschinen an, die neuen URLs zu indizieren und alle Ranking-Signale von den alten URLs an die neuen weiterzuleiten

Daher müssen Sie 301-Weiterleitungen verwenden, wenn Ihre Website zu/von einer anderen Domain/Subdomain wechselt, wenn Sie von HTTP zu HTTPS wechseln oder wenn die Website oder Teile davon umstrukturiert wurden

Trotz einiger Behauptungen von Google, dass 302-Weiterleitungen den PageRank weitergeben, wäre die Indizierung der neuen URLs langsamer und es könnte viel länger dauern, bis Ranking-Signale von der alten auf die neue Seite weitergeleitet werden

302-Weiterleitungen (temporär) sollten nur in Situationen verwendet werden, in denen Eine Weiterleitung muss nicht dauerhaft leben und daher hat die Indizierung der neuen URL keine Priorität

Bei 302-Weiterleitungen werden Suchmaschinen zunächst zögern, den Inhalt der Ziel-URL der Weiterleitung zu indizieren und etwaige Ranking-Signale an diese weiterzuleiten

Wenn die temporären Weiterleitungen jedoch über einen längeren Zeitraum bestehen bleiben, ohne entfernt oder aktualisiert zu werden, könnten sie am Ende ähnlich wie permanente (301) Weiterleitungen sein

Verwenden Sie 302-Weiterleitungen, wenn eine Weiterleitung wahrscheinlich in naher Zukunft aktualisiert oder entfernt werden muss, sowie für alle länder-, sprach- oder gerätespezifischen Weiterleitungen.

Meta-Refresh und JavaScript-Redirects sollten vermieden werden

Auch wenn Google beim Crawlen von JavaScript immer besser wird, gibt es keine Garantie, dass diese erkannt werden oder Ranking-Signale an die neuen Seiten weiterleiten

Wenn Sie mehr darüber erfahren möchten, wie Google mit den verschiedenen Arten von Weiterleitungen umgeht, Bitte lesen Sie den Beitrag von John Mueller.

Umleitungszuordnungsprozess

Wenn Sie das Glück haben, an einer Migration zu arbeiten, die keine URL-Änderungen beinhaltet, können Sie diesen Abschnitt überspringen

Lesen Sie andernfalls weiter, um herauszufinden, warum alte Seiten, die nach der Migration nicht unter derselben URL verfügbar sind, umgeleitet werden sollten

Die Umleitungszuordnungsdatei ist eine Tabelle, die die folgenden zwei Spalten enthält:

Legacy-Site-URL –> die URL einer Seite auf der alten Site.

Neue Site-URL –> die URL einer Seite auf der neuen Site.

Wenn Sie eine Seite von der alten auf die neue Site mappen (umleiten), versuchen Sie immer, sie auf die meisten zu mappen entsprechende entsprechende Seite

In Fällen, in denen eine relevante Seite nicht vorhanden ist, vermeiden Sie es, die Seite auf die Startseite umzuleiten

In erster Linie führt die Umleitung von Benutzern auf irrelevante Seiten zu einer sehr schlechten Benutzererfahrung

Google hat erklärt, dass das Umleiten von Seiten „massenhaft“ auf irrelevante Seiten als weiche 404-Fehler behandelt wird und aus diesem Grund keinen SEO-Wert weitergibt

Wenn Sie auf der neuen Website keine entsprechende Seite finden können, versuchen Sie, sie der übergeordneten Kategorieseite zuzuordnen

Sobald die Zuordnung abgeschlossen ist, muss die Datei an das Entwicklungsteam gesendet werden, um die Weiterleitungen zu erstellen, damit diese dies können getestet werden, bevor die neue Website gestartet wird

Die Implementierung von Weiterleitungen ist ein weiterer Teil des Website-Migrationszyklus, bei dem oft etwas schief gehen kann

Steigerung der Effizienz während des Weiterleitungs-Mapping-Prozesses

Redirect Mapping erfordert viel Liebe zum Detail und muss von erfahrenen SEOs durchgeführt werden

Die URL-Zuordnung auf kleinen Sites könnte theoretisch erfolgen, indem jede URL der alten Site manuell einer URL auf der neuen Site zugeordnet wird

Aber auf großen Websites, die aus Tausenden oder sogar Hunderttausenden von Seiten bestehen, ist die manuelle Zuordnung jeder einzelnen URL praktisch unmöglich und es muss eine Automatisierung eingeführt werden

Sich auf bestimmte gemeinsame Attribute zwischen der alten und der neuen Website zu verlassen, kann eine enorme Zeitersparnis sein

Zu diesen Attributen können Seitentitel, H1-Überschriften oder andere eindeutige Seitenkennungen wie Produktcodes, SKUs usw

gehören

Stellen Sie sicher, dass die Attribute, auf die Sie sich für die Weiterleitungszuordnung verlassen, eindeutig sind und sich nicht auf mehreren Seiten wiederholen; Andernfalls erhalten Sie eine falsche Zuordnung

Profi-Tipp: Stellen Sie sicher, dass die URL-Struktur der neuen Website beim Staging zu 100 % fertiggestellt ist, bevor Sie mit der Arbeit an der Weiterleitungszuordnung beginnen

Nichts ist riskanter, als URLs zuzuordnen, die aktualisiert werden, bevor die neue Website live geht

Wenn URLs aktualisiert werden, nachdem die Weiterleitungszuordnung abgeschlossen ist, müssen Sie beim Start möglicherweise mit unerwünschten Situationen umgehen, z

B

fehlerhaften Weiterleitungen, Weiterleitungsketten und Weiterleitungsschleifen

Die alte Website sollte rechtzeitig vor dem Migrationsdatum gesperrt werden, sodass es einen Stichtag für die Veröffentlichung neuer Inhalte auf der alten Website gibt

Dadurch wird sichergestellt, dass keine Seiten bei der Weiterleitungszuordnung übersehen werden, und es wird garantiert, dass alle Seiten auf der alten Website weitergeleitet werden

Vergessen Sie nicht die alten Weiterleitungen!

Sie sollten sich die vorhandenen Weiterleitungen der alten Website besorgen, um sicherzustellen, dass sie bei der Vorbereitung der Weiterleitungszuordnung für die neue Website berücksichtigt werden

Wenn Sie dies nicht tun, ist es wahrscheinlich, dass die aktuelle Weiterleitungsdatei der Website am Startdatum von der neuen überschrieben wird

Wenn dies passiert, werden alle alten Weiterleitungen, die zuvor vorhanden waren, nicht mehr existieren und die Website kann eine beträchtliche Menge an Link-Equity verlieren, dessen Ausmaß weitgehend von der Menge der alten Weiterleitungen auf der Website abhängt

Beispielsweise sollte eine Website, die in der Vergangenheit einige Migrationen durchlaufen hat, über eine gute Anzahl von alten Weiterleitungen verfügen, die nicht verloren gehen sollen.

Behalten Sie im Idealfall so viele alte Weiterleitungen wie möglich bei und stellen Sie sicher, dass diese keine Probleme verursachen, wenn sie mit den Weiterleitungen der neuen Website kombiniert werden

Es wird dringend empfohlen, potenzielle Weiterleitungsketten in diesem frühen Stadium zu eliminieren

Dies lässt sich leicht bewerkstelligen, indem Sie überprüfen, ob dieselbe URL sowohl als “alte URL” als auch als “neue Website-URL” in der Tabelle für die Weiterleitungszuordnung angezeigt wird

In diesem Fall müssen Sie die „Neue Website-URL“ entsprechend aktualisieren

Beispiel:

URL A leitet zu URL B weiter (alte Weiterleitung)

URL B leitet zu URL C weiter (neue Weiterleitung)

Was zu folgender Weiterleitungskette führt:

URL A –> URL B –> URL C

Um dies zu beseitigen, ändern Sie die vorhandene alte Weiterleitung und erstellen Sie eine neue, sodass:

URL A leitet zu URL C weiter (geänderte alte Weiterleitung)

URL B leitet zu URL C weiter (neue Weiterleitung)

Profi-Tipp: Überprüfen Sie Ihre Redirect-Mapping-Tabelle auf Redirect-Loops

Diese treten auf, wenn die „alte URL“ mit der „neuen Website-URL“ identisch ist

Umleitungsschleifen müssen entfernt werden, da sie dazu führen, dass Seiten unendlich geladen werden, die für Benutzer und Suchmaschinen nicht zugänglich sind

Umleitungsschleifen müssen eliminiert werden, da sie sofortige Traffic-, Conversion- und Ranking-Killer sind!

Implementieren Sie pauschale Umleitungsregeln, um doppelte Inhalte zu vermeiden

Es wird dringend empfohlen, Umleitungsregeln auszuarbeiten, die so viele URL-Anforderungen wie möglich abdecken

Das Implementieren von Umleitungsregeln auf einem Webserver ist viel effizienter, als sich auf zahlreiche Eins-zu-Eins-Umleitungen zu verlassen

Wenn Ihr Weiterleitungszuordnungsdokument aus einer sehr großen Anzahl von Weiterleitungen besteht, die als Eins-zu-eins-Weiterleitungsregeln implementiert werden müssen, kann die Leistung der Website beeinträchtigt werden

Überprüfen Sie in jedem Fall mit dem Entwicklungsteam die maximale Anzahl von Weiterleitungen, die der Webserver problemlos verarbeiten kann

In jedem Fall gibt es einige Standardregeln für Weiterleitungen, die vorhanden sein sollten, um Probleme mit doppelten Inhalten zu vermeiden:

URL-Großschreibung: Alle URLs, die Großbuchstaben enthalten, sollten per 301 auf alle URLs in Kleinbuchstaben umgeleitet werden, z

https://www.website.com/Page/ sollte automatisch auf https://www.website.com/page/ umgeleitet werden

Host: Zum Beispiel sollten alle Nicht-www-URLs per 301 auf ihr www-Äquivalent umgeleitet werden, z

https://website.com/page/ sollte auf https://www.website.com/page/ umgeleitet werden

Protokoll: Auf einer sicheren Website sollten Anfragen für HTTP-URLs an die entsprechende HTTPS-URL umgeleitet werden, z

http://www.website.com/page/” class=”redactor-autoparser-object”>http://www.website.com/page/ sollte automatisch auf https://www.website.com/page umleiten /.Nachgestellter Schrägstrich: Beispielsweise sollten alle URLs, die keinen nachgestellten Schrägstrich enthalten, auf eine Version mit nachgestelltem Schrägstrich umgeleitet werden, z

B

http://www.website.com/page sollte zu http://www.website.com/ umleiten

page/” class=”redactor-autoparser-object”>http://www.website.com/page/

Auch wenn einige dieser standardmäßigen Weiterleitungsregeln auf der alten Website vorhanden sind, gehen Sie nicht davon aus, dass sie unbedingt auf der neuen Website vorhanden sein werden, es sei denn, sie werden ausdrücklich angefordert

Vermeiden Sie interne Weiterleitungen

Versuchen Sie, die internen Links der Website zu aktualisieren, damit sie keine internen Weiterleitungen auslösen

Obwohl Suchmaschinen internen Weiterleitungen folgen können, werden diese nicht empfohlen, da sie die Ladezeiten von Seiten zusätzlich verzögern und sich auch negativ auf die Crawling-Zeit von Suchmaschinen auswirken könnten

Vergessen Sie Ihre Bilddateien nicht

Wenn die Bilder der Website an einen neuen Ort verschoben wurden, empfiehlt Google, die alten Bild-URLs auf die neuen Bild-URLs umzuleiten, damit Google die neuen Bilder schneller finden und indexieren kann

Wenn es nicht einfach ist, alle Bilder umzuleiten, zielen Sie darauf ab, zumindest die Bild-URLs umzuleiten, die angesammelte Backlinks haben

Phase 3: Pre-Launch-Tests

Je früher Sie mit dem Testen beginnen können, desto besser

Bestimmte Dinge müssen vollständig implementiert werden, um getestet zu werden, andere nicht

Beispielsweise könnten User-Journey-Probleme bereits beim Prototypen- oder Wireframe-Design identifiziert werden

Auch inhaltliche Probleme zwischen alter und neuer Seite oder inhaltliche Inkonsistenzen (z

B

zwischen Desktop- und mobiler Seite) konnten frühzeitig erkannt werden

Aber die eher technischen Komponenten sollten erst getestet werden, wenn sie vollständig implementiert sind – Dinge wie Weiterleitungen, kanonische Tags oder XML-Sitemaps

Je früher Probleme identifiziert werden, desto wahrscheinlicher ist es, dass sie vor dem Start der neuen Website behoben werden

Das Erkennen bestimmter Arten von Problemen zu einem späteren Zeitpunkt ist nicht kosteneffektiv, würde mehr Ressourcen erfordern und erhebliche Verzögerungen verursachen

Schlechte Tests und nicht genügend Zeit, um alle Bausteine, die die SEO- und UX-Leistung beeinträchtigen können, gründlich zu testen, können katastrophale Folgen haben, kurz nachdem die neue Website online gegangen ist

Stellen Sie sicher, dass Suchmaschinen nicht auf die Staging-/Test-Website zugreifen können

Bevor Sie die neue Website in einer Staging-/Testumgebung zur Verfügung stellen, treffen Sie einige Vorsichtsmaßnahmen, damit Suchmaschinen sie nicht indizieren

Es gibt ein paar verschiedene Möglichkeiten, dies zu tun, jede mit unterschiedlichen Vor- und Nachteilen

Die Site ist für bestimmte IPs verfügbar (am meisten empfohlen)

Die Testseite nur für bestimmte IP-Adressen (auf der weißen Liste) verfügbar zu machen, ist eine sehr effektive Methode, um zu verhindern, dass Suchmaschinen sie durchsuchen

Jeder, der versucht, auf die URL der Testseite zuzugreifen, kann keine Inhalte sehen, es sei denn, seine IP wurde auf die weiße Liste gesetzt

Der Hauptvorteil besteht darin, dass Benutzer auf der weißen Liste problemlos auf die Website zugreifen und sie durchsuchen können

Der einzige Nachteil ist, dass webbasierte Tools von Drittanbietern (z

B

Google-Tools) aufgrund der IP-Beschränkungen nicht verwendet werden können

Passwortschutz

Der Passwortschutz der Staging-/Test-Site ist eine weitere Möglichkeit, Suchmaschinen-Crawler fernzuhalten, aber diese Lösung hat zwei Hauptnachteile

Je nach Implementierung ist es möglicherweise nicht möglich, eine passwortgeschützte Website zu crawlen und zu testen, wenn die Crawler-Anwendung den Anmeldebildschirm nicht passiert

Der andere Nachteil: Passwortgeschützte Websites, die Formulare zur Authentifizierung verwenden, können mit Anwendungen von Drittanbietern gecrawlt werden, aber es besteht die Gefahr, schwerwiegende und unerwartete Probleme zu verursachen

Dies liegt daran, dass der Crawler auf jeden Link auf einer Seite klickt (wenn Sie angemeldet sind) und am Ende leicht auf Links klicken könnte, die Seiten erstellen oder entfernen, Plugins installieren/deinstallieren usw.

Robots.txt-Blockierung

Das Hinzufügen der folgenden Codezeilen zur robots.txt-Datei der Testseite verhindert, dass Suchmaschinen die Seiten der Testseite durchsuchen

User-agent: * Disallow: /

Ein Nachteil dieser Methode besteht darin, dass die unzulässigen URLs möglicherweise in den Suchergebnissen von Google erscheinen, obwohl der Inhalt, der auf dem Testserver angezeigt wird, nicht indexiert wird

Ein weiterer Nachteil ist, dass, wenn die obige robots.txt-Datei auf die Live-Site verschoben wird, schwerwiegende De-Indexierungsprobleme auftreten

Dies ist etwas, auf das ich schon oft gestoßen bin, und aus diesem Grund würde ich nicht empfehlen, diese Methode zum Blockieren von Suchmaschinen zu verwenden

User Journey Review

Wenn die Website neu gestaltet oder umstrukturiert wurde, besteht die Möglichkeit, dass die User Journeys in gewissem Maße beeinträchtigt werden

Die Überprüfung der User Journeys so früh wie möglich und lange vor dem Start der neuen Website ist aufgrund des Mangels an Benutzerdaten schwierig

Ein erfahrener UX-Experte kann jedoch alle Bedenken melden, die sich negativ auf die Konversionsrate der Website auswirken könnten

Da A/B-Tests in dieser Phase kaum möglich sind, könnte es sich lohnen, einige Benutzertests durchzuführen und zu versuchen, Feedback von echten Benutzern zu erhalten

Leider können Probleme mit der Benutzererfahrung zu den schwierigeren gehören, da sie möglicherweise seitenweite Änderungen erfordern, die viel Zeit und Mühe kosten.

Bei kompletten Website-Überholungen können nicht alle UX-Entscheidungen immer durch Daten gestützt werden, und viele Entscheidungen müssen auf Best Practices, Erfahrungen aus der Vergangenheit und dem „Bauchgefühl“ basieren, daher könnte es sich auszahlen, UX-/CRO-Experten so früh wie möglich einzubeziehen Dividenden später

Überprüfung der Site-Architektur

Eine Site-Migration ist oft eine großartige Gelegenheit, die Site-Architektur zu verbessern

Mit anderen Worten, Sie haben eine großartige Chance, Ihre auf Keywords ausgerichteten Inhalte neu zu organisieren und ihr Suchverkehrspotenzial zu maximieren

Die Durchführung einer umfassenden Keyword-Recherche hilft dabei, die bestmöglichen Kategorien- und Unterkategorieseiten zu identifizieren, sodass Benutzer und Suchmaschinen mit wenigen Klicks zu jeder Seite der Website gelangen können – je weniger, desto besser, sodass Sie am Ende nicht zu tief greifen Taxonomie

Die Identifizierung neuer Keywords mit angemessenem Traffic-Potenzial und deren Zuordnung zu neuen Zielseiten kann einen großen Unterschied für die organischen Traffic-Niveaus der Website ausmachen

Auf der anderen Seite muss die Verbesserung der Site-Architektur sorgfältig erfolgen

Es könnte zu Problemen führen, wenn beispielsweise wichtige Seiten tiefer in die neue Website-Architektur verschoben werden oder wenn zu viele ähnliche Seiten für dieselben Keywords optimiert sind

Einige der erfolgreichsten Site-Migrationen sind diejenigen, die erhebliche Ressourcen zuweisen, um die Site-Architektur zu verbessern

Metadaten & Copy Review

Stellen Sie sicher, dass die Seitentitel, Meta-Beschreibungen, Überschriften und der Text der Website ohne Probleme von der alten auf die neue Website übertragen wurden

Wenn Sie neue Seiten erstellt haben, vergewissern Sie sich, dass diese optimiert sind und nicht auf Keywords abzielen, auf die bereits andere Seiten abzielen

Wenn Sie die Plattform ändern, beachten Sie, dass die neue Plattform möglicherweise andere Standardwerte hat, wenn neue Seiten erstellt werden

Das Starten der neuen Website ohne richtig optimierte Seitentitel oder fehlende Kopien hat unmittelbar negative Auswirkungen auf das Ranking und den Traffic Ihrer Website

Vergessen Sie nicht zu überprüfen, ob auch benutzergenerierte Inhalte (d

h

Benutzerbewertungen, Kommentare) hochgeladen wurden

Überprüfung der internen Verlinkung

Interne Links sind das Rückgrat einer Website

Unabhängig davon, wie gut die Kopie der Website optimiert und strukturiert ist, wird sie nicht ausreichen, um erfolgreich zu sein, es sei denn, sie wird von einem fehlerfreien internen Linkschema unterstützt

Interne Links müssen auf der gesamten Website überprüft werden, einschließlich Links in:

Haupt- und Nebennavigation

Kopf- und Fußzeile links

Links zu Körperinhalten

Paginierung links

Horizontal links (verwandte Artikel, ähnliche Produkte usw.)

Vertikale Links (z

B

Breadcrumb-Navigation)

Cross-Site-Links (z

B

Links über internationale Sites)

Technische Kontrollen

Eine Reihe technischer Prüfungen muss durchgeführt werden, um sicherzustellen, dass die technische Einrichtung der neuen Website einwandfrei ist, und um größere technische Störungen zu vermeiden, nachdem die neue Website online gegangen ist

Überprüfung der Datei Robots.txt

Bereiten Sie die robots.txt-Datei der neuen Website in der Staging-Umgebung vor

Auf diese Weise können Sie sie auf Fehler oder Auslassungen testen und vermeiden, dass Suchmaschinen-Crawling-Probleme auftreten, wenn die neue Website live geht

Ein klassischer Fehler bei Website-Migrationen ist, wenn die robots.txt-Datei den Suchmaschinenzugriff mit der folgenden Anweisung verhindert:

Nicht zulassen: /

Wenn dies versehentlich in die Live-Site übertragen wird (was häufig der Fall ist), wird es Suchmaschinen daran hindern, die Site zu crawlen

Und wenn Suchmaschinen eine indizierte Seite nicht crawlen können, werden die mit der Seite verknüpften Schlüsselwörter in den Suchergebnissen herabgestuft und die Seite schließlich deindexiert

Aber wenn die robots.txt-Datei beim Staging mit den Robotern der neuen Website gefüllt ist. txt-Anweisungen könnte dieses Missgeschick vermieden werden.

Stellen Sie beim Vorbereiten der robots.txt-Datei der neuen Website Folgendes sicher:

Es blockiert nicht den Suchmaschinenzugriff auf Seiten, die indiziert werden sollen

Es blockiert keine JavaScript- oder CSS-Ressourcen, die Suchmaschinen zum Rendern von Seiteninhalten benötigen

Der Inhalt der robots.txt-Datei der alten Website wurde überprüft und übertragen over, falls erforderlich.

Es verweist auf die neuen XML-Sitemaps und nicht auf ältere, die nicht mehr existieren.

Canonical-Tags-Überprüfung

Überprüfen Sie die kanonischen Tags der Website

Suchen Sie nach Seiten, die entweder kein Canonical-Tag haben oder ein Canonical-Tag, das auf eine andere URL verweist, und hinterfragen Sie, ob dies beabsichtigt ist

Vergessen Sie nicht, die kanonischen Tags zu crawlen, um herauszufinden, ob sie eine 200-Serverantwort zurückgeben

Wenn dies nicht der Fall ist, müssen Sie sie aktualisieren, um alle 3xx-, 4xx- oder 5xx-Serverantworten zu eliminieren

Sie sollten auch nach Seiten suchen, die ein kanonisches Tag haben, das auf eine andere URL in Kombination mit einer noindex-Anweisung verweist, da diese beiden widersprüchliche Signale sind und Sie eines davon eliminieren müssen

Nachdem Sie die Staging-Site gecrawlt haben, suchen Sie nach Seiten, deren Meta-Robots-Eigenschaften auf „noindex“ oder „nofollow“ gesetzt sind

Wenn dies der Fall ist, überprüfen Sie jeden einzelnen von ihnen, um sicherzustellen, dass dies beabsichtigt ist, und entfernen Sie die Direktive „noindex“ oder „nofollow“, wenn dies nicht der Fall ist

XML-Sitemaps überprüfen

Bereiten Sie zwei verschiedene Arten von Sitemaps vor: eine, die alle indexierbaren Seiten der neuen Website enthält, und eine, die alle indexierbaren Seiten der alten Website enthält

Ersteres wird dazu beitragen, Google auf die indexierbaren URLs der neuen Website aufmerksam zu machen

Letzteres wird Google helfen, auf die vorhandenen Weiterleitungen und die Tatsache, dass einige der indizierten URLs an neue Orte verschoben wurden, aufmerksam zu werden, damit es sie entdecken und die Suchergebnisse schneller aktualisieren kann

Sie sollten jede XML-Sitemap überprüfen, um sie zu erstellen sicher, dass:

Es validiert ohne Probleme

Es ist als UTF-8 kodiert

Es enthält nicht mehr als 50.000 Zeilen

Seine Größe übersteigt 50 MB im unkomprimierten Zustand nicht

Wenn es mehr als 50.000 Zeilen gibt oder die Dateigröße 50 MB überschreitet, müssen Sie die Sitemap in kleinere aufteilen

Dadurch wird verhindert, dass der Server überlastet wird, wenn Google die Sitemap zu häufig anfordert

Außerdem müssen Sie jede XML-Sitemap crawlen, um sicherzustellen, dass sie nur indexierbare URLs enthält

Alle nicht indexierbaren URLs sollten aus den XML-Sitemaps ausgeschlossen werden, wie z

3xx-, 4xx- und 5xx-Seiten (z

B

umgeleitete, nicht gefundene Seiten, fehlerhafte Anfragen usw.)

Weiche 404er

Dies sind Seiten ohne Inhalt, die eine 200-Serverantwort anstelle einer 404 zurückgeben

Kanonisierte Seiten (abgesehen von selbstverweisenden kanonischen URLs)

Seiten mit einer Meta-Robots-Noindex-Direktive

(…) (…)

Seiten mit einem noindex X-Robots-Tag im HTTP-Header

HTTP/1.1 200 OK Datum: Di, 10

Nov

2017 17:12:43 GMT (…) X-Robots-Tag: noindex (…)

Von der robots.txt-Datei blockierte Seiten

Das Erstellen sauberer XML-Sitemaps kann dabei helfen, die tatsächlichen Indizierungsebenen der neuen Website zu überwachen, sobald sie live geht

Wenn Sie dies nicht tun, wird es sehr schwierig sein, Indizierungsprobleme zu erkennen.

Profi-Tipp: Laden Sie jede XML-Sitemap herunter und öffnen Sie sie in Excel, um einen detaillierten Überblick über zusätzliche Attribute wie hreflang oder Bildattribute zu erhalten.

HTML-Sitemap-Überprüfung

Je nach Größe und Art der zu migrierenden Website kann es in bestimmten Fällen von Vorteil sein, eine HTML-Sitemap zu haben

Eine HTML-Sitemap, die aus URLs besteht, die nicht über die Hauptnavigation der Website verlinkt sind, kann das Auffinden und Indizieren von Seiten erheblich verbessern

Vermeiden Sie es jedoch, eine HTML-Sitemap zu erstellen, die zu viele URLs enthält

Wenn Sie Tausende von URLs einfügen müssen, sollten Sie eine segmentierte HTML-Sitemap erstellen

Die Anzahl der verschachtelten Sitemaps sowie die maximale Anzahl von URLs, die Sie in jede Sitemap aufnehmen sollten, hängt von der Autorität der Website ab

Je autoritativer eine Website ist, desto mehr verschachtelte Sitemaps und URLs könnte sie verkraften

Beispielsweise besteht die HTML-Sitemap von NYTimes.com aus drei Ebenen, von denen jede über 1.000 URLs pro Sitemap enthält

Diese verschachtelten HTML-Sitemaps helfen Suchmaschinen-Crawlern beim Auffinden von Artikeln, die seit 1851 veröffentlicht wurden und die sonst schwer zu finden und zu indizieren wären, da nicht alle intern verlinkt worden wären

Strukturierte Datenprüfung

Fehler im strukturierten Daten-Markup müssen frühzeitig erkannt werden, damit Zeit bleibt, sie zu beheben, bevor die neue Website live geht

Idealerweise sollten Sie jede einzelne Seitenvorlage (und nicht jede einzelne Seite) mit dem Testtool für strukturierte Daten von Google testen

Überprüfen Sie unbedingt das Markup sowohl auf den Desktop- als auch auf den mobilen Seiten, insbesondere wenn die mobile Website nicht responsive ist Das Tool meldet nur vorhandene Fehler, aber keine Auslassungen

Wenn Ihre Produktseitenvorlage beispielsweise das strukturierte Datenschema „Produkt“ nicht enthält, meldet das Tool keine Fehler

Daher sollten Sie neben der Fehlersuche auch sicherstellen, dass jede Seitenvorlage das entsprechende strukturierte Daten-Markup für ihren Inhaltstyp enthält

Die aktuellsten Details zur Implementierung strukturierter Daten und unterstützter Inhaltstypen finden Sie in der Google-Dokumentation.

Überprüfung des JavaScript-Crawlings

Sie müssen jede einzelne Seitenvorlage der neuen Website testen, um sicherzustellen, dass Google Inhalte crawlen kann, die JavaScript-Parsing erfordern

Wenn Sie das Abruf- und Rendering-Tool von Google auf Ihrer Staging-Site verwenden können, sollten Sie dies unbedingt tun

Führen Sie andernfalls einige manuelle Tests durch, folgen Sie den Ratschlägen von Justin Brigg Rahmen

Die folgende Tabelle fasst die Ergebnisse von Bartosz zusammen und zeigt, dass einige JavaScript-Frameworks nicht SEO-freundlich sind, wobei AngularJS derzeit das problematischste von allen ist

Bartosz fand auch heraus, dass andere Suchmaschinen (wie Bing, Yandex und Baidu) wirklich mit der Indexierung zu kämpfen hatten JavaScript-generierter Inhalt, der wichtig zu wissen ist, wenn der Datenverkehr Ihrer Website von einer dieser Suchmaschinen abhängt

Hoffentlich wird sich dies im Laufe der Zeit verbessern, aber mit der zunehmenden Popularität von JavaScript-Frameworks in der Webentwicklung muss dies ganz oben auf Ihrer Checkliste stehen

Schließlich sollten Sie überprüfen, ob externe Ressourcen blockiert werden

Leider können Sie dies nicht zu 100 % kontrollieren, da viele Ressourcen (wie JavaScript- und CSS-Dateien) von Websites Dritter gehostet werden, die sie möglicherweise über ihre eigenen robots.txt-Dateien blockieren!

Auch hier kann das Tool Abrufen und Rendern helfen, diese Art von Problem zu diagnostizieren, das, wenn es nicht behoben wird, erhebliche negative Auswirkungen haben könnte

SEO-Überprüfung für mobile Websites

Überprüfung der Asset-Blockierung

Stellen Sie zunächst sicher, dass die robots.txt-Datei nicht versehentlich JavaScript-, CSS- oder Bilddateien blockiert, die für die Wiedergabe der Inhalte der mobilen Website unerlässlich sind

Dies könnte sich negativ darauf auswirken, wie Suchmaschinen den Seiteninhalt der mobilen Website rendern und indexieren, was sich wiederum negativ auf die Sichtbarkeit und Leistung der mobilen Website auswirken könnte

Überprüfung des Mobile-First-Index

Um Probleme im Zusammenhang mit dem Mobile-First-Index von Google zu vermeiden, überprüfen Sie die mobile Website gründlich und stellen Sie sicher, dass es in den folgenden Bereichen keine Inkonsistenzen zwischen der Desktop- und der mobilen Website gibt:

Seitentitel

Meta-Beschreibungen

Überschriften kopieren

Kanonische Tags

Meta-Roboter-Attribute (z

B

noindex, nofollow)

Intern links

Strukturierte Daten

Eine responsive Website sollte auf allen Geräten dieselben Inhalte, Links und Auszeichnungen bereitstellen, und die oben genannten SEO-Attribute sollten auf Desktop- und mobilen Websites identisch sein mobile Website eingerichtet

Responsive Website-Überprüfung

Eine responsive Website muss allen Geräten den gleichen HTML-Code liefern, der (über die Verwendung von CSS) je nach Bildschirmgröße angepasst wird

Der Googlebot kann diese mobile Einrichtung automatisch erkennen, solange er die Seite und ihre Assets crawlen darf

Daher ist es äußerst wichtig sicherzustellen, dass der Googlebot auf alle wichtigen Assets wie Bilder, JavaScript- und CSS-Dateien zugreifen kann.

Um Browsern zu signalisieren, dass eine Seite responsive ist, sollte ein meta=”viewport”-Tag im jeder HTML-Seite eingefügt werden

Wenn das Meta-Darstellungsbereich-Tag fehlt, werden die Schriftgrößen möglicherweise inkonsistent angezeigt, was dazu führen kann, dass Google die Seite als nicht für Mobilgeräte optimiert einstuft

Separate Überprüfung der mobilen URLs

Wenn die mobile Website separate URLs vom Desktop verwendet, stellen Sie Folgendes sicher:

Jede Desktop-Seite hat ein Tag, das auf die entsprechende mobile URL verweist

Jede mobile Seite hat ein rel=”canonical”-Tag, das auf die entsprechende Desktop-URL verweist

Wenn Desktop-URLs auf mobilen Geräten angefordert werden, werden sie auf die entsprechende mobile URL umgeleitet

Weiterleitungen funktionieren auf allen Mobilgeräten, einschließlich Android, iPhone und Windows Phones

Es gibt keine irrelevanten Querverweise zwischen den Desktop- und mobilen Seiten

Das bedeutet, dass interne Links, die auf einer Desktop-Seite gefunden wurden, nur auf Desktop-Seiten verweisen sollten und solche, die auf einer mobilen Seite gefunden wurden, nur auf andere mobile Seiten verweisen sollten

Die mobilen URLs geben eine 200-Serverantwort zurück

Überprüfung der dynamischen Bereitstellung

Websites mit dynamischer Bereitstellung stellen jedem Gerät unterschiedlichen Code bereit, jedoch unter derselben URL

Überprüfen Sie auf Websites mit dynamischer Bereitstellung, ob der HTTP-Header „variable“ korrekt eingerichtet wurde

Dies ist erforderlich, da Websites mit dynamischer Bereitstellung den HTML-Code für mobile Benutzeragenten ändern und der variable HTTP-Header dem Googlebot hilft, die mobilen Inhalte zu erkennen

Überprüfung der Handyfreundlichkeit

Überprüfen Sie die Seiten unabhängig von der Einrichtung der mobilen Website (responsive, separate URLs oder dynamische Bereitstellung) mit einem mobilen User-Agent und stellen Sie Folgendes sicher:

Das Ansichtsfenster wurde korrekt eingestellt

Die Verwendung eines Darstellungsbereichs mit fester Breite auf mehreren Geräten führt zu Problemen bei der mobilen Nutzbarkeit

Die Schriftgröße ist nicht zu klein

Touch-Elemente (d

h

Schaltflächen links) sind nicht zu nah

Es gibt keine aufdringlichen Interstitials wie Anzeigen, Anmeldeformulare für Mailinglisten, App-Download-Popups usw

Um Probleme zu vermeiden, sollten Sie entweder ein kleines HTML- oder ein Image-Banner verwenden

Mobile Seiten werden nicht zu langsam geladen (siehe nächster Abschnitt)

Das für Mobilgeräte optimierte Testtool von Google kann bei der Diagnose der meisten der oben genannten Probleme helfen:

Überprüfung der AMP-Website

Wenn es eine AMP-Website gibt und eine Desktop-Version der Website verfügbar ist, stellen Sie Folgendes sicher:

Jede Nicht-AMP-Seite (d

h

Desktop, Mobil) hat ein Tag, das auf die entsprechende AMP-URL verweist.

Jede AMP-Seite hat ein rel=”canonical”-Tag, das auf die entsprechende Desktop-Seite verweist.

Jede AMP-Seite, die keine entsprechende AMP-Seite hat Die Desktop-URL hat ein selbstverweisendes kanonisches Tag

Sie sollten auch sicherstellen, dass die AMPs gültig sind

Dies kann mit dem AMP-Testtool von Google getestet werden

Mixed-Content-Fehler

Da Google stark darauf drängt, dass Websites vollständig sicher sind, und Chrome der erste Browser ist, der HTTP-Seiten als nicht sicher kennzeichnet, sollten Sie die neue Website auf HTTPS starten und sicherstellen, dass alle Ressourcen wie Bilder, CSS- und JavaScript-Dateien über sicheres HTTPS angefordert werden Verbindungen

Dies ist wichtig, um Probleme mit gemischten Inhalten zu vermeiden.

Gemischte Inhalte treten auf, wenn eine Seite, die über eine sichere HTTPS-Verbindung geladen wird, Assets über unsichere HTTP-Verbindungen anfordert

Die meisten Browser blockieren entweder gefährliche HTTP-Anforderungen oder zeigen nur Warnungen an, die die Benutzererfahrung beeinträchtigen

Es gibt viele Möglichkeiten, Fehler bei gemischten Inhalten zu identifizieren, einschließlich der Verwendung von Crawler-Anwendungen, Googles Lighthouse usw.

Überprüfung von Bild-Assets

Google crawlt Bilder seltener als HTML-Seiten

Wenn Sie die Bilder einer Website von einem Standort zu einem anderen migrieren (z

B

von Ihrer Domain zu einem CDN), gibt es Möglichkeiten, Google dabei zu helfen, die migrierten Bilder schneller zu finden

Das Erstellen einer Bild-XML-Sitemap ist hilfreich, aber Sie müssen auch sicherstellen, dass der Googlebot beim Crawlen der Website auf die Bilder der Website zugreifen kann

Der knifflige Teil bei der Bildindizierung ist, dass sowohl die Webseite, auf der ein Bild erscheint, als auch die Bilddatei selbst indiziert werden müssen

Überprüfung der Websiteleistung

Messen Sie zu guter Letzt die Seitenladezeiten der alten Website und sehen Sie, wie diese mit denen der neuen Website verglichen werden, wenn diese auf Staging verfügbar wird

Konzentrieren Sie sich in dieser Phase auf die netzwerkunabhängigen Performance-Aspekte wie die Verwendung externer Ressourcen (Bilder, JavaScript und CSS), den HTML-Code und die Konfiguration des Webservers

Weitere Informationen dazu finden Sie weiter unten

Analytics-Tracking-Überprüfung

Stellen Sie sicher, dass das Analytics-Tracking richtig eingerichtet ist

Diese Überprüfung sollte idealerweise von spezialisierten Analyseberatern durchgeführt werden, die über die Implementierung des Tracking-Codes hinausblicken

Stellen Sie sicher, dass Ziele und Ereignisse richtig eingerichtet sind, E-Commerce-Tracking implementiert ist, erweitertes E-Commerce-Tracking aktiviert ist usw

Es gibt nichts Frustrierenderes, als keine Analysedaten zu haben, nachdem Ihre neue Website gestartet wurde

Weiterleitungstests

Das Testen der Weiterleitungen, bevor die neue Website live geht, ist entscheidend und kann Ihnen später viel Ärger ersparen

Es gibt viele Möglichkeiten, die Weiterleitungen auf einem Staging-/Testserver zu überprüfen, aber unterm Strich sollten Sie die neue Website nicht starten, ohne die Weiterleitungen getestet zu haben

Sobald die Weiterleitungen in der Staging-/Testumgebung verfügbar sind, crawlen Sie die gesamte Website Liste der Weiterleitungen und prüfen Sie auf folgende Probleme:

Umleitungsschleifen (eine URL, die unendlich auf sich selbst umleitet)

Weiterleitungen mit einer 4xx- oder 5xx-Serverantwort.

Weiterleitungsketten (eine URL, die zu einer anderen URL weiterleitet, die wiederum zu einer anderen URL weiterleitet usw.).

Kanonische URLs, die eine 4xx- oder 5xx-Serverantwort zurückgeben.

Kanonische Schleifen (Seite A hat ein Canonical, das auf Seite B zeigt, das ein Canonical hat, das auf Seite A zeigt)

zu HTTP- und HTTPS-URLs oder www- und Nicht-www-URLs

Führende/nachgestellte Leerzeichen

Verwenden Sie trim() in Excel, um sie zu beseitigen

Ungültige Zeichen in URLs

Profi-Tipp: Stellen Sie sicher, dass eine der URLs der alten Website auf die richtige URL auf der neuen Website umleitet

Da die neue Website noch nicht existiert, können Sie zu diesem Zeitpunkt nur testen, ob die Ziel-URL der Weiterleitung die beabsichtigte ist, aber es lohnt sich auf jeden Fall

Die Tatsache, dass eine URL weiterleitet, bedeutet nicht, dass sie auf die richtige Seite weiterleitet

Phase 4: Tagesaktivitäten starten

Wenn die Seite heruntergefahren ist..

Während die neue Seite die alte ersetzt, besteht die Möglichkeit, dass die Live-Seite vorübergehend nicht erreichbar ist

Die Ausfallzeit sollte auf ein Minimum beschränkt werden, aber währenddessen sollte der Webserver auf jede URL-Anfrage mit einer 503-Serverantwort (Dienst nicht verfügbar) antworten

Dadurch wird den Suchmaschinen-Crawlern mitgeteilt, dass die Website vorübergehend wegen Wartungsarbeiten nicht verfügbar ist, sodass sie später zurückkehren, um die Website zu crawlen negativ beeinflusst werden und die Wiederherstellung erfolgt nicht sofort, sobald die Site wiederhergestellt ist

Darüber hinaus sollte die Website, während sie vorübergehend nicht verfügbar ist, auch als informative Warteseite dienen, die die Benutzer darüber informiert, dass die Website vorübergehend wegen Wartungsarbeiten nicht verfügbar ist

Technische Stichproben

Sobald die neue Seite live gegangen ist, werfen Sie einen kurzen Blick auf:

Die robots.txt-Datei, um sicherzustellen, dass Suchmaschinen nicht daran gehindert werden, Top-Seiten-Weiterleitungen zu crawlen (z

B

werden Anfragen für die Top-Seiten der alten Website korrekt weitergeleitet?) Top-Seiten-Canonical-Tags Top-Seiten-Serverantworten Noindex/nofollow-Anweisungen, falls sie unbeabsichtigt sind

Die Stichproben müssen sowohl auf der mobilen als auch auf der Desktop-Website durchgeführt werden, es sei denn, die Website ist vollständig responsive

Aktionen der Search Console

Folgende Aktivitäten sollten stattfinden, sobald die neue Website live gegangen ist:

Testen und laden Sie die XML-Sitemap(s) hoch Legen Sie den bevorzugten Standort der Domain fest (www oder nicht-www) Legen Sie die internationale Ausrichtung fest (falls zutreffend) Konfigurieren Sie die URL-Parameter, um potenzielle Probleme mit doppelten Inhalten frühzeitig anzugehen

Laden Sie die Disavow-Datei hoch (falls zutreffend)

Verwenden Sie das Adressänderungstool (bei einem Domainwechsel)

Profi-Tipp: Verwenden Sie die Funktion „Abruf wie durch Google“ für jeden unterschiedlichen Seitentyp (z

B

die Startseite, eine Kategorie, eine Unterkategorie, eine Produktseite), um sicherzustellen, dass der Googlebot die Seiten ohne Probleme rendern kann

Überprüfen Sie alle gemeldeten blockierten Ressourcen und vergessen Sie nicht, Fetch and Render für Desktop und Mobilgeräte zu verwenden, insbesondere wenn die mobile Website nicht reagiert

Phase 5: Überprüfung nach dem Start

Sobald die neue Seite online gegangen ist, sollte eine neue Runde eingehender Überprüfungen durchgeführt werden

Dies sind im Wesentlichen dieselben wie die im Abschnitt „Phase 3: Pre-Launch-Tests“ erwähnten

Der Hauptunterschied in dieser Phase besteht jedoch darin, dass Sie jetzt Zugriff auf viel mehr Daten und Tools haben

Unterschätzen Sie nicht den Aufwand, den Sie in dieser Phase aufwenden müssen, denn alle Probleme, auf die Sie jetzt stoßen, wirken sich direkt auf die Leistung der Website in den SERPs aus

Andererseits gilt: Je früher ein Problem identifiziert wird, desto schneller wird es gelöst

Zusätzlich zur Wiederholung der gleichen Testaufgaben, die im Abschnitt Phase 3 beschrieben wurden, können Dinge in bestimmten Bereichen gründlicher, genauer und genauer getestet werden ausführlicher

Sie können jetzt die Funktionen der Search Console voll ausschöpfen

Überprüfen Sie die Crawling-Statistiken und Serverprotokolle

Behalten Sie die in der Search Console verfügbaren Crawling-Statistiken im Auge, um sicherzustellen, dass Google die Seiten der neuen Website crawlt

Wenn der Googlebot auf neue Seiten stößt, neigt er im Allgemeinen dazu, die durchschnittliche Anzahl der Seiten, die er pro Tag durchsucht, zu beschleunigen

Wenn Sie jedoch zum Zeitpunkt des Startdatums keine Spitzen erkennen können, beeinträchtigt möglicherweise etwas die Fähigkeit des Googlebots, die Website zu crawlen

Die Überprüfung der Serverprotokolldateien ist bei weitem die effektivste Methode, um Crawling-Probleme oder Ineffizienzen zu erkennen

Tools wie Botify und On Crawl können äußerst nützlich sein, da sie Crawls mit Serverprotokolldaten kombinieren und Seiten hervorheben können, die von Suchmaschinen nicht gecrawlt werden, Seiten, die nicht intern verlinkt sind (verwaiste Seiten), Seiten mit geringem Wert, die stark intern verlinkt sind, und vieles mehr.

Crawling-Fehler regelmäßig überprüfen

Behalten Sie die gemeldeten Crawling-Fehler im Auge, in den ersten Wochen am besten täglich

Das tägliche Herunterladen dieser Fehler, das Crawlen der gemeldeten URLs und das Ergreifen der erforderlichen Maßnahmen (z

B

Implementieren zusätzlicher 301-Weiterleitungen, Beheben von Soft-404-Fehlern) trägt zu einer schnelleren Wiederherstellung bei

Es ist höchst unwahrscheinlich, dass Sie jeden einzelnen gemeldeten 404-Fehler umleiten müssen, aber Sie sollten Umleitungen für die wichtigsten hinzufügen

Profi-Tipp: In Google Analytics können Sie leicht herausfinden, welche die am häufigsten angeforderten 404-URLs sind, und diese zuerst beheben !

Weitere nützliche Funktionen der Search Console

Andere Search Console-Funktionen, die es wert sind, überprüft zu werden, sind blockierte Ressourcen, strukturierte Datenfehler, Fehler bei der mobilen Benutzerfreundlichkeit, HTML-Verbesserungen und internationales Targeting (um nach hreflang-gemeldeten Fehlern zu suchen)

Profi-Tipp: Behalten Sie die URL-Parameter im Auge, falls sie erneut Probleme mit doppelten Inhalten verursachen

Wenn dies der Fall ist, sollten Sie erwägen, dringend Abhilfemaßnahmen zu ergreifen.

Geschwindigkeit der Website messen

Sobald die neue Website online ist, messen Sie die Geschwindigkeit der Website, um sicherzustellen, dass die Seiten der Website sowohl auf Desktop- als auch auf Mobilgeräten schnell genug geladen werden

Da die Website-Geschwindigkeit ein geräteübergreifendes Ranking-Signal ist und langsame Seiten Benutzer und Kunden verlieren, ist es äußerst wichtig, die Geschwindigkeit der neuen Website mit der der alten Website zu vergleichen

Wenn die Seitenladezeiten der neuen Website länger zu sein scheinen, sollten Sie sofort Maßnahmen ergreifen, da sonst der Verkehr und die Conversions Ihrer Website mit ziemlicher Sicherheit beeinträchtigt werden

Auswerten der Geschwindigkeit mit den Tools von Google

Zwei Tools, die dabei helfen können, sind Google Lighthouse und Pagespeed Insights.

Das Pagespeed Insights Tool misst die Seitenleistung sowohl auf mobilen als auch auf Desktop-Geräten und zeigt reale Seitengeschwindigkeitsdaten basierend auf Benutzerdaten, die Google von Chrome erfasst

Es überprüft auch, ob eine Seite gängige Best Practices für die Leistung angewendet hat, und liefert einen Optimierungsfaktor

Das Tool umfasst die folgenden Hauptkategorien:

Speed ​​Score: Kategorisiert eine Seite anhand von zwei Metriken als schnell, durchschnittlich oder langsam: The First Contentful Paint (FCP) und DOM Content Loaded (DCL)

Eine Seite gilt als schnell, wenn beide Metriken im obersten Drittel ihrer Kategorie liegen drittes), Durchschnitt (mittleres Drittel) oder Langsam (unteres Drittel) durch Vergleich mit allen FCP- und DCL-Ereignissen im Chrome-Benutzererfahrungsbericht

Seitenstatistiken: Kann angeben, ob die Seite möglicherweise schneller ist, wenn der Entwickler das Erscheinungsbild und die Funktionalität ändert der Seite

Optimierungsvorschläge: Eine Liste von Best Practices, die auf eine Seite angewendet werden könnten

Google Lighthouse ist sehr praktisch für die Prüfung der mobilen Leistung, Zugänglichkeit und Progressive Web Apps

Es bietet verschiedene nützliche Metriken, die verwendet werden können, um die Seitenleistung auf mobilen Geräten zu messen, wie zum Beispiel:

First Meaningful Paint, das misst, wann der primäre Inhalt einer Seite sichtbar ist

Time to Interactive ist der Punkt, an dem die Seite für einen Benutzer bereit ist, mit ihr zu interagieren

Speed ​​Index misst, wie schnell eine Seite sichtbar gefüllt wird

Beide Tools bieten Empfehlungen zur Verbesserung gemeldeter Probleme mit der Websiteleistung

Sie können dieses Google-Tool auch verwenden, um eine grobe Schätzung des Prozentsatzes der Nutzer zu erhalten, die Sie möglicherweise aufgrund langsamer Seitenladezeiten von den Seiten Ihrer mobilen Website verlieren Das Tool bietet auch einen Branchenvergleich, damit Sie sich ein Bild davon machen können, wie weit Sie von den leistungsstärksten Websites in Ihrer Branche entfernt sind

Geschwindigkeitsmessung von echten Benutzern

Sobald die Website online gegangen ist, können Sie damit beginnen, die Website-Geschwindigkeit basierend auf den Benutzern zu bewerten, die Ihre Website besuchen

Wenn Sie Google Analytics haben, können Sie die durchschnittliche Ladezeit der neuen Website leicht mit der vorherigen vergleichen

Wenn Sie außerdem Zugriff auf ein Real User Monitoring-Tool wie Pingdom haben, können Sie die Website-Geschwindigkeit anhand der Besucher Ihrer Website bewerten Seite? ˅

Die folgende Karte zeigt, wie verschiedene Besucher abhängig von ihrem geografischen Standort sehr unterschiedliche Ladezeiten erleben

Im Beispiel unten scheinen die Seitenladezeiten für Besucher aus Großbritannien, den USA und Deutschland zufriedenstellend zu sein, aber für Benutzer in anderen Ländern sind sie viel länger

Phase 6: Messung der Site-Migrationsleistung

Wann messen

War die Site-Migration erfolgreich? Das ist die millionenschwere Frage, auf die alle Beteiligten eine Antwort wissen möchten, sobald die neue Seite live geht

In Wirklichkeit wird die Antwort umso klarer, je länger Sie warten, da die Sichtbarkeit in den ersten Wochen oder sogar Monaten je nach Größe und Autorität Ihrer Website sehr volatil sein kann

Bei kleineren Sites sollte ein Zeitraum von 4 bis 6 Wochen ausreichen, bevor die Sichtbarkeit der neuen Site mit der der alten Site verglichen wird

Bei großen Websites müssen Sie möglicherweise mindestens 2–3 Monate warten, bevor Sie messen

Wenn sich die neue Website erheblich von der vorherigen unterscheidet, benötigen die Benutzer außerdem einige Zeit, um sich an das neue Erscheinungsbild zu gewöhnen und sich zu gewöhnen sich mit der neuen Taxonomie, den User Journeys usw

vertraut machen

Solche Änderungen wirken sich zunächst erheblich negativ auf die Conversion-Rate der Website aus, die sich nach einigen Wochen verbessern sollte, da sich wiederkehrende Besucher immer mehr an die neue Website gewöhnen

In jedem Fall kann es riskant sein, datenbasierte Rückschlüsse auf die UX der neuen Website zu ziehen.

Dies sind jedoch nur allgemeine Faustregeln, die zusammen mit anderen Faktoren berücksichtigt werden müssen

Wenn zum Beispiel einige Tage oder Wochen nach dem Start der neuen Website erhebliche zusätzliche Änderungen vorgenommen wurden (z

B

um ein technisches Problem zu beheben), sollte die Bewertung der Migration weiter nach hinten verschoben werden

Die Leistungsmessung ist sehr wichtig, und obwohl Interessengruppen nur daran interessiert sind, etwas über die Auswirkungen auf Umsatz und Traffic zu erfahren, gibt es eine ganze Reihe anderer Metriken, auf die Sie achten sollten

Beispielsweise kann es mehrere Gründe für einen Umsatzrückgang nach einer Website-Migration geben, darunter saisonale Trends, geringeres Markeninteresse, UX-Probleme, die die Konversionsrate der Website erheblich gesenkt haben, schlechte mobile Leistung, schlechte Seitenladezeiten usw

Also, rein Achten Sie neben den organischen Traffic- und Umsatzzahlen auch auf Folgendes:

Desktop- und mobile Sichtbarkeit (von SearchMetrics, SEMrush, Sistrix)

Desktop- und mobile Rankings (von jedem zuverlässigen Ranking-Tracking-Tool)

Benutzerinteraktion (Absprungrate, durchschnittliche Zeit auf der Seite)

Sitzungen pro Seitentyp (d. h

führen die Kategorieseiten zu so vielen Sitzungen wie zuvor?)

Konversionsrate pro Seitentyp (d

h

konvertieren die Produktseiten auf die gleiche Weise wie zuvor?)

Conversion-Rate nach Gerät (d. h

ist die Desktop-/Mobil-Conversion-Rate seit dem Start der neuen Website gestiegen/gesunken?)

Die Überprüfung der folgenden Punkte könnte auch sehr praktisch sein, insbesondere aus Sicht der technischen Fehlerbehebung:

Anzahl der indexierten Seiten (Search Console)

Eingereichte vs

indexierte Seiten in XML-Sitemaps (Search Console)

Seiten mit mindestens einem Besuch (Analytics)

Seitengeschwindigkeit (PageSpeed ​​​​Insights, Lighthouse, Google Analytics)

Erst nachdem Sie sich mit allen oben genannten Bereichen befasst haben, können Sie mit Sicherheit feststellen, ob Ihre Migration erfolgreich war oder nicht

Viel Glück und wenn Sie Beratung oder Unterstützung bei Ihrer Website-Migration benötigen, wenden Sie sich bitte an! Checkliste für die Site-Migration

Eine aktuelle Checkliste für die Site-Migration kann von unserer Website heruntergeladen werden

Bitte beachten Sie, dass die Checkliste regelmäßig aktualisiert wird, um alle kritischen Bereiche für eine erfolgreiche Site-Migration einzubeziehen

Anhang: Nützliche Tools

Raupen

Screaming Frog: Das Schweizer Taschenmesser für SEO, ideal zum Crawlen kleiner und mittlerer Websites

Sitebulb: Sehr intuitive Crawler-Anwendung mit einer übersichtlichen Benutzeroberfläche, gut organisierten Berichten und vielen nützlichen Datenvisualisierungen

Deep Crawl: Cloud-basiert Crawler mit der Fähigkeit, Staging-Sites zu crawlen und Crawl-Vergleiche durchzuführen

Ermöglicht Vergleiche zwischen verschiedenen Crawls und kommt gut mit großen Websites zurecht.

Botify: Ein weiterer leistungsstarker Cloud-basierter Crawler, der durch außergewöhnliche Funktionen zur Analyse von Serverprotokolldateien unterstützt wird, die sehr aufschlussreich sein können, um zu verstehen, wie Suchmaschinen die Website crawlen.

On-Crawl : Crawler- und Server-Log-Analysator für SEO-Audits in Unternehmen mit vielen praktischen Funktionen zur Identifizierung von Crawl-Budget, Inhaltsqualität und Leistungsproblemen

Praktische Chrome-Add-Ons

Tools zur Website-Überwachung

Uptime Robot: Kostenlose Überwachung der Website-Verfügbarkeit.

Robotto: Kostenloses robots.txt-Überwachungstool.

Pingdom-Tools: Überwacht die Website-Verfügbarkeit und Seitengeschwindigkeit von echten Benutzern (RUM-Dienst)

SEO-Radar: Überwacht alle kritischen SEO-Elemente und löst Warnungen aus, wenn sich diese ändern.

Website-Performance-Tools

PageSpeed ​​​​Insights: Misst die Seitenleistung für mobile und Desktop-Geräte

Es überprüft, ob eine Seite gängige Best Practices für die Leistung angewendet hat, und liefert eine Punktzahl, die zwischen 0 und 100 Punkten liegt

Lighthouse: Praktische Chrome-Erweiterung für Audits zu Leistung, Zugänglichkeit und progressiven Web-Apps

Kann auch über die Befehlszeile oder als Node-Modul ausgeführt werden

Webpagetest.org: Sehr detaillierte Seitentests von verschiedenen Standorten, Verbindungen und Geräten, einschließlich detaillierter Wasserfalldiagramme

Testwerkzeuge für strukturierte Daten

Mobile Testwerkzeuge

Backlink-Datenquellen

GoogleBot Crawler ora utilizza HTTP / 2 per indicizzare il Web, discutiamo di come questo influisce sul nostro back-end. Update New

Video unten ansehen

Neues Update zum Thema googlebot image 1.0

Google Bot is now attempting to use HTTP/2 to crawl the web
Ever since mainstream browsers started supporting the next major revision of HTTP, HTTP/2 or h2 for short, web professionals asked us whether Googlebot can crawl over the upgraded, more modern version of the protocol.
Today we’re announcing that starting mid November 2020, Googlebot will support crawling over HTTP/2 for select sites.
Article
https://webmasters.googleblog.com/2020/09/googlebot-will-soon-speak-http2.html
* Intro 0:00
* What is a Crawler 1:06
* Current Crawler uses h1 2:00
* Crawler now uses h2 4:40
* Less connections, slightly high CPU usage 6:30
* Opting out of h2 crawling 9:00
* FAQ 11:40

Http/2 playlist 0;50 https://www.youtube.com/playlist?list=PLQnljOFTspQWbBegaU790WhH7gNKcMAl-
http/2 not cheap 7;00 https://www.youtube.com/watch?v=GriONb4EfPY
lucid chart 9;50 https://www.youtube.com/watch?v=gejfT1h6LBo
h2c smuggling 18:30 https://www.youtube.com/watch?v=B2VEQ3jFq6Q

🎙️Listen to the Backend Engineering Podcast
https://husseinnasser.com/podcast
🏭 Backend Engineering Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQUNnO4p00ua_C5mKTfldiYT
💾 Database Engineering Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQXjD0HOzN7P2tgzu7scWpl2
🏰 Load Balancing and Proxies Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQVMeBmWI2AhxULWEeo7AaMC
🏛️ Software Archtiecture Videos
https://www.youtube.com/playlist?list=PLQnljOFTspQXNP6mQchJVP3S-3oKGEuw9
📩 Messaging Systems
https://www.youtube.com/playlist?list=PLQnljOFTspQVcumYRWE2w9kVxxIXy_AMo
Become a Member
https://www.youtube.com/channel/UC_ML5xP23TOWKUcc-oAE_Eg/join
Support me on PayPal
https://bit.ly/33ENps4
Stay Awesome,
Hussein

googlebot image 1.0 Ähnliche Bilder im Thema

 Update New  GoogleBot Crawler ora utilizza HTTP / 2 per indicizzare il Web, discutiamo di come questo influisce sul nostro back-end.
GoogleBot Crawler ora utilizza HTTP / 2 per indicizzare il Web, discutiamo di come questo influisce sul nostro back-end. New

Dataset | Documentation – Google Developers Update

03/03/2022 · Verifying Googlebot and other Google crawlers Large site owner’s guide to managing your crawl budget How HTTP status codes, …

+ Details hier sehen

Read more

Datensätze sind einfacher zu finden, wenn Sie unterstützende Informationen wie Name, Beschreibung, Ersteller und Verbreitungsformate als strukturierte Daten bereitstellen

Der Ansatz von Google zur Ermittlung von Datensätzen nutzt schema.org und andere Metadatenstandards, die zu Seiten hinzugefügt werden können, die Datensätze beschreiben

Der Zweck dieses Markups besteht darin, die Erkennung von Datensätzen aus Bereichen wie Biowissenschaften, Sozialwissenschaften, maschinelles Lernen, Bürger- und Regierungsdaten und mehr zu verbessern

Sie können Datasets mit dem Tool Dataset Search suchen

Hinweis: Das tatsächliche Erscheinungsbild in den Suchergebnissen kann davon abweichen

Mit dem Test für Rich-Suchergebnisse können Sie eine Vorschau der meisten Funktionen anzeigen

Hier sind einige Beispiele dafür, was als Dataset gelten kann:

Eine Tabelle oder eine CSV-Datei mit einigen Daten

Eine organisierte Sammlung von Tabellen

Eine Datei in einem proprietären Format, die Daten enthält

Eine Sammlung von Dateien, die zusammen einen aussagekräftigen Datensatz bilden

Ein strukturiertes Objekt mit Daten in einem anderen Format, das Sie möglicherweise zur Verarbeitung in ein spezielles Tool laden möchten

Bilder erfassen Daten

Dateien im Zusammenhang mit maschinellem Lernen, z

B

trainierte Parameter oder Strukturdefinitionen für neuronale Netze

So fügen Sie strukturierte Daten hinzu

Strukturierte Daten sind ein standardisiertes Format, um Informationen über eine Seite bereitzustellen und den Seiteninhalt zu klassifizieren

Wenn strukturierte Daten neu für Sie sind, können Sie mehr darüber erfahren, wie strukturierte Daten funktionieren

Hier finden Sie eine Übersicht darüber, wie Sie strukturierte Daten erstellen, testen und freigeben

Eine Schritt-für-Schritt-Anleitung zum Hinzufügen strukturierter Daten zu einer Webseite finden Sie im Codelab für strukturierte Daten

Löschen eines Datensatzes aus den Ergebnissen der Datensatzsuche

Wenn Sie nicht möchten, dass ein Datensatz in den Ergebnissen der Datensatzsuche angezeigt wird, verwenden Sie das Robots-Meta-Tag, um zu steuern, wie Ihr Datensatz indiziert wird

Beachten Sie, dass es einige Zeit dauern kann (je nach Crawling-Zeitplan Tage oder Wochen), bis die Änderungen in der Datensatzsuche widergespiegelt werden

Unser Ansatz zur Datensatzerkennung

Wir können strukturierte Daten auf Webseiten über Datensätze verstehen, indem wir entweder schema.org-Datensatz-Markup oder äquivalente Strukturen verwenden, die im Data Catalog Vocabulary (DCAT)-Format des W3C dargestellt werden

Wir untersuchen auch die experimentelle Unterstützung für strukturierte Daten auf der Grundlage von W3C CSVW und erwarten, dass wir unseren Ansatz weiterentwickeln und anpassen, wenn sich Best Practices für die Beschreibung von Datensätzen herausbilden

Weitere Informationen zu unserem Ansatz zur Dataset-Erkennung finden Sie unter Erleichtern der Dataset-Erkennung.

Beispiele

Hier ist ein Beispiel für Datasets mit JSON-LD und schema.org-Syntax (bevorzugt) im Test für Rich-Suchergebnisse

Dasselbe schema.org-Vokabular kann auch in RDFa 1.1- oder Microdata-Syntaxen verwendet werden

Sie können auch das DCAT-Vokabular des W3C verwenden, um die Metadaten zu beschreiben

Das folgende Beispiel basiert auf einer realen Datensatzbeschreibung.

JSON-LD Hier ist ein Beispiel für einen Datensatz in JSON-LD: NCDC Storm Events Database < /head>

Datenbank für NCDC-Sturmereignisse < /head> RDFa Hier ist ein Beispiel für einen Datensatz in RDFa unter Verwendung des DCAT-Vokabulars:

Name:
ACME Inc Cashflow-Daten

< dt>Identifikatoren:

https://doi.org/10.1000/182
https://identifiers.org /ark:/12345/fk1234
Beschreibung:
Jahresabschluss – Konzern-Kapitalflussrechnung
Kategorie:
Finanzen
Downloads:

< /article>

Richtlinien

Websites müssen die Richtlinien für strukturierte Daten befolgen

Zusätzlich zu den Richtlinien für strukturierte Daten empfehlen wir die folgenden Best Practices für Sitemap und Quelle und Herkunft

Best Practices für Sitemaps

Verwenden Sie eine Sitemap-Datei, um Google dabei zu helfen, Ihre URLs zu finden

Die Verwendung von Sitemap-Dateien und sameAs-Markup hilft dabei, zu dokumentieren, wie Datensatzbeschreibungen auf Ihrer Website veröffentlicht werden

Wenn Sie über ein Datensatz-Repository verfügen, haben Sie wahrscheinlich mindestens zwei Arten von Seiten: die kanonischen („Landing“) Seiten für jeden Datensatz und Seiten, die auflisten mehrere Datensätze (z

B

Suchergebnisse oder eine Teilmenge von Datensätzen)

Wir empfehlen, den kanonischen Seiten strukturierte Daten zu einem Datensatz hinzuzufügen

Verwenden Sie die Eigenschaft sameAs, um auf die kanonische Seite zu verlinken, wenn Sie mehreren Kopien des Datensatzes strukturierte Daten hinzufügen, z

B

Auflistungen auf Suchergebnisseiten

Google muss nicht jede Erwähnung desselben Datensatzes explizit markieren, aber wenn Sie dies aus anderen Gründen tun, empfehlen wir dringend die Verwendung von sameAs.

Best Practices für Quelle und Herkunft

Offene Datensätze werden häufig neu veröffentlicht, aggregiert und basieren auf anderen Datensätzen

Dies ist ein erster Überblick über unseren Ansatz zur Darstellung von Situationen, in denen ein Datensatz eine Kopie eines anderen Datensatzes ist oder anderweitig darauf basiert

Verwenden Sie die sameAs-Eigenschaft, um die kanonischsten URLs für das Original anzugeben, wenn der Datensatz oder die Beschreibung dies ist eine einfache Wiederveröffentlichung von Materialien, die an anderer Stelle veröffentlicht wurden

Der Wert von sameAs muss die Identität des Datensatzes eindeutig angeben – mit anderen Worten, verwenden Sie nicht denselben sameAs-Wert für zwei verschiedene Datensätze Wiederveröffentlichung von Materialien, die an anderer Stelle veröffentlicht wurden

Der Wert von muss eindeutig die Identität des Datensatzes angeben – mit anderen Worten, verwenden Sie nicht denselben Wert für zwei verschiedene Datensätze

Verwenden Sie die isBasedOn-Eigenschaft in Fällen, in denen das neu veröffentlichte Dataset (einschließlich seiner Metadaten) erheblich geändert wurde

Die Eigenschaft in Fällen, in denen das erneut veröffentlichte Dataset (einschließlich seiner Metadaten) erheblich geändert wurde

Wenn ein Datensatz von mehreren Originalen abgeleitet oder aggregiert wird, verwenden Sie die isBasedOn-Eigenschaft..-Eigenschaft

Verwenden Sie die Eigenschaft identifier, um relevante Digital Object Identifiers (DOIs) oder Compact Identifiers anzuhängen

Wenn das Dataset mehr als einen Bezeichner hat, wiederholen Sie die Bezeichnereigenschaft

Bei Verwendung von JSON-LD wird dies mithilfe der JSON-Listensyntax dargestellt

Wir hoffen, unsere Empfehlungen basierend auf dem Feedback zu verbessern, insbesondere in Bezug auf die Beschreibung der Herkunft, Versionierung und der mit der Zeitreihenveröffentlichung verbundenen Daten

Bitte beteiligen Sie sich an Community-Diskussionen

Textliche Immobilienempfehlungen

Wir empfehlen, alle Texteigenschaften auf 5000 Zeichen oder weniger zu beschränken

Die Google-Datensatzsuche verwendet nur die ersten 5000 Zeichen einer Text-Property

Namen und Titel bestehen in der Regel aus wenigen Wörtern oder einem kurzen Satz

Bekannte Fehler und Warnungen

Im Testtool für strukturierte Daten von Google und anderen Validierungssystemen werden möglicherweise Fehler oder Warnungen angezeigt

Insbesondere können Validierungssysteme vorschlagen, dass Organisationen Kontaktinformationen haben müssen, einschließlich eines contactType ; Zu den nützlichen Werten gehören Kundenservice, Notfall, Journalist, Nachrichtenredaktion und öffentliches Engagement

Sie können auch Fehler ignorieren, wenn csvw:Table ein unerwarteter Wert für die Eigenschaft mainEntity ist

Definitionen von strukturierten Datentypen

Sie müssen die erforderlichen Eigenschaften angeben, damit Ihre Inhalte als Rich-Suchergebnis angezeigt werden können

Sie können auch die empfohlenen Eigenschaften hinzufügen, um weitere Informationen zu Ihren Inhalten hinzuzufügen, was zu einer besseren Benutzererfahrung führen könnte

Sie können das Testtool für strukturierte Daten verwenden, um Ihr Markup zu validieren ) und Darstellung ihres Inhalts

Datensatz-Metadaten geben beispielsweise an, worum es in dem Datensatz geht, welche Variablen er misst, wer ihn erstellt hat und so weiter

Es enthält beispielsweise keine konkreten Werte für die Variablen.

Dataset

Die vollständige Definition von Dataset ist unter schema.org/Dataset verfügbar

Sie können zusätzliche Informationen zur Veröffentlichung des Datensatzes angeben, z

B

die Lizenz, den Zeitpunkt der Veröffentlichung, seinen DOI oder ein sameAs, das auf eine kanonische Version des Datensatzes in einem anderen Repository verweist

Fügen Sie Bezeichner , Lizenz und sameAs für Datensätze hinzu, die Herkunfts- und Lizenzinformationen bereitstellen

Erforderliche Eigenschaften Beschreibung Text Eine kurze Zusammenfassung, die einen Datensatz beschreibt

Richtlinien Die Zusammenfassung muss zwischen 50 und 5000 Zeichen lang sein

Die Zusammenfassung kann die Markdown-Syntax enthalten

Eingebettete Bilder müssen absolute Pfad-URLs verwenden (anstelle von relativen Pfaden)

Wenn Sie das JSON-LD-Format verwenden, kennzeichnen Sie neue Zeilen mit

(zwei Zeichen: Backslash und Kleinbuchstabe „n“)

name Text Ein beschreibender Name eines Datensatzes

Zum Beispiel „Schneehöhe in der nördlichen Hemisphäre“

Richtlinien Verwenden Sie nach Möglichkeit eindeutige Namen für unterschiedliche Datensätze

Empfohlen: “Schneehöhe in der nördlichen Hemisphäre” und “Schneehöhe in der südlichen Hemisphäre” für zwei verschiedene Datensätze

Nicht empfohlen: „Schneehöhe“ und „Schneehöhe“ für zwei verschiedene Datensätze.

Empfohlene Eigenschaften alternateName Text Alternative Namen, die verwendet wurden, um auf dieses Dataset zu verweisen, wie z

B

Aliase oder Abkürzungen

Beispiel (im JSON-LD-Format): “name”: “The Quick, Draw! Dataset” “alternateName”: [“Quick Draw Dataset”, “quickdraw-dataset”] Ersteller Person oder Organisation Der Ersteller oder Autor dieses Datasets

Um Personen eindeutig zu identifizieren, verwenden Sie ORCID ID als Wert der Eigenschaft sameAs des Typs Person

Um Institutionen und Organisationen eindeutig zu identifizieren, verwenden Sie die ROR-ID

Beispiel (im JSON-LD-Format): “creator”: [ { “@type”: “Person”, “sameAs”: “http://orcid.org/0000-0000-0000-0000”, “givenName”: “Jane”, “familyName”: “Foo”, “name”: “Jane Foo” }, { “@type”: “Person”, “sameAs”: “http://orcid.org/0000-0000-0000 -0001”, “givenName”: “Jo”, “familyName”: “Bar”, “name”: “Jo Bar” }, { “@type”: “Organisation”, “sameAs”: “http://ror. org/xxxxxxxxx”, “name”: “Fictitious Research Consortium” } ] Zitat Text oder kreative Arbeit Kennzeichnet wissenschaftliche Artikel, die vom Datenanbieter zusätzlich zum Datensatz selbst zu zitieren sind

Stellen Sie das Zitat für das Dataset selbst mit anderen Eigenschaften bereit, wie z

Beispielsweise kann diese Eigenschaft eine verwandte wissenschaftliche Veröffentlichung, wie z

B

einen Datendeskriptor, ein Datenpapier oder einen Artikel, für den dieser Datensatz ergänzendes Material ist, eindeutig identifizieren

Beispiele (im JSON-LD-Format): “Zitat”: “https://doi.org/10.1111/111” “Zitat”: “https://identifiers.org/pubmed:11111111” “Zitat”: “https: //identifiers.org/arxiv:0111.1111v1” “citation”: “Doe J (2014) Influence of X. .

https://doi.org/10.1111/111″ Zusätzliche Richtlinien Verwenden Sie diese Eigenschaft nicht, um Zitate bereitzustellen Informationen zum Datensatz selbst

Es soll verwandte wissenschaftliche Artikel identifizieren, nicht den Datensatz selbst

Um Informationen bereitzustellen, die zum Zitieren des Datensatzes selbst erforderlich sind, verwenden Sie stattdessen die Eigenschaften name , Bezeichner , Ersteller und Herausgeber.

, , , und Eigenschaften stattdessen

Wenn Sie die Zitationseigenschaft mit einem Zitations-Snippet füllen, geben Sie nach Möglichkeit die Artikelkennung (z

B

einen DOI) an

Empfohlen: „Doe J (2014) Influence of X

Biomics 1(1)

https://doi.org/10.1111/111“ Nicht empfohlen: „Doe J (2014) Influence of X

Biomics 1(1).“ Geldgeber Person oder Organisation Eine Person oder Organisation, die diesen Datensatz finanziell unterstützt

Um Personen eindeutig zu identifizieren, verwenden Sie ORCID ID als Wert der Eigenschaft sameAs des Typs Person

Um Institutionen und Organisationen eindeutig zu identifizieren, verwenden Sie die ROR-ID

Beispiel (im JSON-LD-Format): “funder”: [ { “@type”: “Person”, “sameAs”: “http://orcid.org/0000-0000-0000-0002”, “givenName”: “Jane”, “familyName”: “Funder”, “name”: “Jane Funder” }, { “@type”: “Organisation”, “sameAs”: “http://ror.org/yyyyyyyyy”, “name “: “Fiktive Finanzierungsorganisation” } ] hasPart oder isPartOf URL oder Datensatz Wenn der Datensatz eine Sammlung kleinerer Datensätze ist, verwenden Sie die hasPart-Eigenschaft, um eine solche Beziehung anzugeben

Umgekehrt, wenn das Dataset Teil eines größeren Datasets ist, verwenden Sie isPartOf

Beide Eigenschaften können die Form einer URL oder einer Dataset-Instanz haben

Falls Dataset als Wert verwendet wird, muss es alle Eigenschaften enthalten, die für ein eigenständiges Dataset erforderlich sind

Beispiele: “hasPart” : [ { “@type”: “Dataset”, “name”: “Sub dataset 01”, “description”: “Informative Beschreibung des ersten Subdatasets…”, “license”: “https: //creativecommons.org/publicdomain/zero/1.0/”, “creator”: { “@type”:”Organisation”, “name”: “Unterdatensatz 01 Ersteller” } }, { “@type”: “Datensatz” , “name”: “Unterdatensatz 02”, “description”: “Informative Beschreibung des zweiten Unterdatensatzes…”, “license”: “https://creativecommons.org/publicdomain/zero/1.0/”, “creator “: { “@type”:”Organisation”, “name”: “Unterdatensatz 02 Ersteller” } } ] “isPartOf” : “https://example.com/aggregate_dataset” Bezeichner URL , Text oder PropertyValue Ein Bezeichner, B

ein DOI oder ein Compact Identifier

Wenn das Dataset mehr als einen Bezeichner hat, wiederholen Sie die Bezeichnereigenschaft

Bei Verwendung von JSON-LD wird dies mithilfe der JSON-Listensyntax dargestellt

isAccessibleForFree Boolean Gibt an, ob auf das Dataset ohne Bezahlung zugegriffen werden kann

keywords Text Schlüsselwörter, die den Datensatz zusammenfassen

Lizenz-URL oder CreativeWork Eine Lizenz, unter der das Dataset vertrieben wird

Zum Beispiel: “Lizenz”: “https://creativecommons.org/publicdomain/zero/1.0/” “Lizenz”: { “@type”: “CreativeWork”, “name”: “Benutzerdefinierte Lizenz”, “url”: “https://example.com/custom_license” } Zusätzliche Richtlinien Geben Sie eine URL an, die eindeutig eine bestimmte Version der verwendeten Lizenz identifiziert

Empfohlene „Lizenz“ : „https://creativecommons.org/licenses/by/4.0“ Nicht empfohlene „Lizenz“ : „https://creativecommons.org/licenses/by“ MeasurementTechnique Text oder URL Die Technik, Technologie oder Methodik in einem Datensatz verwendet, der der/den in variableMeasured beschriebenen Variable(n) entsprechen kann

Die Eigenschaft MeasurementTechnique wird auf schema.org vorgeschlagen und steht zur Standardisierung aus

Wir empfehlen Publishern, Feedback zu dieser Eigenschaft mit der schema.org-Community zu teilen

sameAs URL Die URL einer Referenzwebseite, die eindeutig die Identität des Datensatzes angibt

SpatialCoverage Text oder Ort Sie können einen einzelnen Punkt angeben, der den räumlichen Aspekt des Datensatzes beschreibt

Schließen Sie diese Eigenschaft nur ein, wenn das Dataset eine räumliche Dimension hat

Beispielsweise ein einzelner Punkt, an dem alle Messungen erfasst wurden, oder die Koordinaten eines Begrenzungsrahmens für einen Bereich

Punkte “spatialCoverage:” { “@type”: “Place”, “geo”: { “@type”: “GeoCoordinates”, “latitude”: 39.3280, “longitude”: 120.1633 } } Formen Verwenden Sie GeoShape, um Bereiche unterschiedlicher Art zu beschreiben Formen

Zum Beispiel, um einen Begrenzungsrahmen anzugeben

“spatialCoverage:” { “@type”: “Place”, “geo”: { “@type”: “GeoShape”, “box”: “39.3280 120.1633 40.445 123.7878” } } Punkte innerhalb von box , circle , line oder polygon Eigenschaften müssen als durch Leerzeichen getrenntes Paar von zwei Werten ausgedrückt werden, die Breiten- und Längengrad (in dieser Reihenfolge) entsprechen

Benannte Orte „spatialCoverage:“ „Tahoe City, CA“ temporalCoverage Text Die Daten im Datensatz decken ein bestimmtes Zeitintervall ab

Schließen Sie diese Eigenschaft nur ein, wenn das Dataset eine zeitliche Dimension hat

Schema.org verwendet den ISO 8601-Standard, um Zeitintervalle und Zeitpunkte zu beschreiben

Je nach Dataset-Intervall können Sie Datumsangaben unterschiedlich beschreiben

Geben Sie offene Intervalle mit zwei Dezimalpunkten (.

) an

Einzeldatum „temporalCoverage“ : „2008“ Zeitraum „temporalCoverage“ : „1950-01-01/2013-12-18“ Unbefristeter Zeitraum „temporalCoverage“ : „2013-12-19/..“ VariableMeasured Text or PropertyValue Die Variable, die dieses Dataset misst

Zum Beispiel Temperatur oder Druck

Die VariableMeasured-Eigenschaft wird auf schema.org vorgeschlagen und steht zur Standardisierung aus

Wir empfehlen Publishern, Feedback zu dieser Eigenschaft mit der schema.org-Community zu teilen

version Text oder Nummer Die Versionsnummer für den Datensatz

url URL Speicherort einer Seite, die den Datensatz beschreibt.

Datenkatalog

Die vollständige Definition von DataCatalog ist unter schema.org/DataCatalog verfügbar

Datasets werden häufig in Repositories veröffentlicht, die viele andere Datasets enthalten

Derselbe Datensatz kann in mehr als einem solchen Repository enthalten sein

Sie können auf einen Datenkatalog verweisen, zu dem dieses Dataset gehört, indem Sie direkt darauf verweisen.

Empfohlene Eigenschaften includedInDataCatalog DataCatalog Der Katalog, zu dem das Dataset gehört.

DataDownload

Die vollständige Definition von DataDownload ist unter schema.org/DataDownload verfügbar

Fügen Sie zusätzlich zu den Dataset-Eigenschaften die folgenden Eigenschaften für Datasets hinzu, die Download-Optionen bereitstellen

Die Verteilungseigenschaft beschreibt, wie das Dataset selbst abgerufen wird, da die URL häufig auf die Zielseite verweist, die das Dataset beschreibt

Die Verteilungseigenschaft beschreibt, wo und in welchem ​​Format die Daten abgerufen werden

Diese Eigenschaft kann mehrere Werte haben: Beispielsweise hat eine CSV-Version eine URL und eine Excel-Version ist unter einer anderen verfügbar

Erforderliche Eigenschaften distribution.contentUrl URL Der Link für den Download

Empfohlene Eigenschaften distribution DataDownload Die Beschreibung des Speicherorts zum Herunterladen des Datensatzes und des Dateiformats zum Download

distribution.encodingFormat Text oder URL Das Dateiformat der Distribution

Tabellarische Datensätze

Beta: Dieser Ansatz befindet sich derzeit in der Beta-Phase und kann daher geändert werden

Ein tabellarischer Datensatz ist in erster Linie in Form eines Rasters aus Zeilen und Spalten organisiert

Für Seiten, die tabellarische Datensätze einbetten, können Sie auch ein expliziteres Markup erstellen, das auf dem grundlegenden Ansatz aufbaut

Derzeit verstehen wir eine Variation von CSVW (“CSV on the Web”, siehe W3C), die parallel zu benutzerorientierten tabellarischen Inhalten auf der HTML-Seite bereitgestellt wird

Hier ist ein Beispiel, das eine kleine Tabelle zeigt, die in CSVW JSON-LD codiert ist Format

Es gibt einige bekannte Fehler im Test für Rich-Suchergebnisse.

American Humane Association

American Humane Association

Überwachen Sie Rich-Suchergebnisse mit der Search Console

Die Search Console ist ein Tool, mit dem Sie überwachen können, wie Ihre Seiten in der Google-Suche abschneiden

Sie müssen sich nicht für die Search Console anmelden, um in die Google-Suchergebnisse aufgenommen zu werden, aber sie kann Ihnen dabei helfen, zu verstehen und zu verbessern, wie Google Ihre Website sieht

Wir empfehlen, die Search Console in den folgenden Fällen zu überprüfen:

Nach der erstmaligen Bereitstellung strukturierter Daten

Nachdem Google Ihre Seiten indexiert hat, suchen Sie mithilfe des entsprechenden Statusberichts für Rich-Suchergebnisse nach Problemen

Im Idealfall gibt es eine Zunahme gültiger Seiten und keine Zunahme von Fehlern oder Warnungen

Wenn Sie Probleme in Ihren strukturierten Daten finden:

Nach der Veröffentlichung neuer Vorlagen oder der Aktualisierung Ihres Codes

Wenn Sie eine Zunahme von Fehlern sehen, haben Sie vielleicht eine neue Vorlage eingeführt, die nicht funktioniert, oder Ihre Website interagiert mit der vorhandenen Vorlage auf neue und schlechte Weise.

, vielleicht haben Sie eine neue Vorlage eingeführt, die nicht funktioniert , oder Ihre Website interagiert auf neue und schlechte Weise mit der vorhandenen Vorlage

Wenn Sie einen Rückgang der gültigen Elemente sehen (nicht mit einer Zunahme der Fehler einhergehen), betten Sie möglicherweise keine strukturierten Daten mehr in Ihre Seiten ein

Verwenden Sie das URL-Prüftool, um herauszufinden, was das Problem verursacht

Warnung: Verwenden Sie keine zwischengespeicherten Links, um Ihre Seiten zu debuggen

Verwenden Sie stattdessen das URL-Inspektionstool, da es über die aktuellste Version Ihrer Seiten verfügt

Regelmäßige Analyse des Datenverkehrs

Fehlerbehebung

Wichtig: Google garantiert nicht, dass Funktionen, die strukturierte Daten verbrauchen, in den Suchergebnissen angezeigt werden

Eine Liste häufiger Gründe, warum Google Ihre Inhalte möglicherweise nicht in einem Rich-Suchergebnis anzeigt, finden Sie in den allgemeinen Richtlinien für strukturierte Daten

Wenn Sie wesentliche Änderungen an Ihrer Website vornehmen, achten Sie auf eine Zunahme von Fehlern und Warnungen zu strukturierten Daten

Analysieren Sie Ihren Google-Suchverkehr mithilfe des Leistungsberichts

Die Daten zeigen Ihnen, wie oft Ihre Seite als Rich-Ergebnis in der Suche erscheint, wie oft Nutzer darauf klicken und an welcher Position Sie in den Suchergebnissen durchschnittlich erscheinen

Sie können diese Ergebnisse auch automatisch mit der Search Console API abrufen

Wenn Sie Probleme beim Implementieren oder Debuggen strukturierter Daten haben, finden Sie hier einige Ressourcen, die Ihnen helfen können

Wenn Sie ein Content-Management-System (CMS) verwenden oder sich jemand anderes um Ihre Website kümmert, bitten Sie ihn um Hilfe

Stellen Sie sicher, dass Sie alle Search Console-Nachrichten, in denen das Problem beschrieben wird, an sie weiterleiten

Bestimmter Datensatz wird nicht in den Ergebnissen der Datensatzsuche angezeigt

error Was das Problem verursacht hat: Ihre Website hat keine strukturierten Daten auf der Seite, die die Datensätze beschreibt, oder die Seite wurde noch nicht gecrawlt.

done Beheben Sie das Problem

Kopieren Sie den Link für die Seite, die Sie voraussichtlich in den Ergebnissen der Datensatzsuche sehen werden, und fügen Sie sie in den Test für Rich-Suchergebnisse ein

Wenn die Meldung „Diese Seite ist nicht für Rich-Suchergebnisse geeignet“ oder „Nicht alle Markups sind für Rich-Suchergebnisse geeignet“ angezeigt wird, bedeutet dies, dass auf der Seite kein Datensatz-Markup vorhanden ist oder sie falsch ist

Sie können es beheben, indem Sie sich auf den Abschnitt Wie man strukturierte Daten hinzufügt beziehen

Wenn auf der Seite Markup vorhanden ist, wurde sie möglicherweise noch nicht gecrawlt

Sie können den Crawling-Status mit der Search Console überprüfen

Das Firmenlogo fehlt oder wird in den Ergebnissen nicht korrekt angezeigt

Fehler Ursache des Problems: Ihrer Seite fehlt möglicherweise das schema.org-Markup für Organisationslogos oder Ihr Unternehmen ist nicht bei Google etabliert

fertig Beheben Sie das Problem

Fastone, il miglior gestore/editor GRATIS di foto al mondo (1°) Update New

Video unten ansehen

Weitere Informationen zum Thema googlebot image 1.0

Con Fastone puoi visualizzare, gestire foto e video, modificare (rimozione occhi rossi, aggiungere testo e didascalie, ritagliare, clone e timbro come Photoshop, ruotare, ridimensionare, regolare colori, aggiungere effetti come filigrana o oscurare volti e altro), dare contemporaneamente diversi comandi a più immagini per velocizzare il lavoro. Tutto in modo GRATUITO.
00:12 Scaricare
00:39 Perchè usarlo?
01:45 Gli eseguibili exe o portable
02:25 Interfaccia grafica
03:24 Scorciatoie da tastiera
03:35 Ritaglio (un esempio)
05:11 Interfaccia grafica del gestore immagini
06:48 Ordinare e filtrare le immagini
07:44 Disegnare
13:15 Clona e pulisci (Timbro clone)
16:44 Regolare colori
18:28 Bordi, cornici e ombreggiature
18:55 Pittura ad olio
19:49 Filigrana (watermark)
20:20 Oscurare (Sfocatura)
21:40 Ridimensionamento
22:40 Azioni su più immagini (Comandi batch)
Se vi va, seguite la mia pagina https://www.facebook.com/beethinformatica/

googlebot image 1.0 Sie können die schönen Bilder im Thema sehen

 New  Fastone, il miglior gestore/editor GRATIS di foto al mondo (1°)
Fastone, il miglior gestore/editor GRATIS di foto al mondo (1°) Update New

Chromium — Wikipédia New Update

Chromium est un navigateur web libre développé par l’organisation Chromium Project créée par Google en 2008. Chromium sert de base à plusieurs autres navigateurs, dont certains open-source (Brave, Iridium…) ou certains propriétaires (Vivaldi Browser, Google Chrome, SRWare Iron, Yandex Browser, Opera & Opera GX, Microsoft Edge) [5].Le moteur de rendu de Chromium

+ ausführliche Artikel hier sehen

Read more

Chromium ist ein Webbrowser, der von der 2008 von Google gegründeten Organisation Chromium Project frei entwickelt wurde

Chromium basiert auf anderen Browsern, die bestimmte Open-Source- (Brave, Iridium…) oder bestimmte Eigenschaften (Vivaldi Browser, Google Chrome , SRWare)

Iron, Yandex Browser, Opera & Opera GX, Microsoft Edge)[5].

Le motor de rendu de Chromium s’appelle Blink

Google ein Ersatz für den Motor de rendu WebKit par Blink depuis

Il permettrait de rendre le navigationur plus stable et plus léger[6],[7]

Er ist kompatibel mit GNU/Linux, Mac OS X und Windows, so ist Chromium ein Multiplateform-Navigationssystem.

Die Erweiterungen von Chrome[8] funktionieren auch mit Chromium[9]

Das ausbeutungsfreie Chromium OS[10] ist ein mit Google Chrome OS kompatibles Projekt

Unterschiede zwischen Chromium und Google Chrome [ Modifikator | Modifikator le code ]

Chromium ist ein Projekt zur Entwicklung des Webbrowsers, auf den Sie sich beziehen, von Google

Bestimmte Benutzer bevorzugen Chromium in Google Chrome, wenn junge Benutzer oder die meisten Google Chrome-Apps im Verhältnis zu Chromium verwendet werden

Iridium[11] ist eine Basis-Oberflächen-Konstante und bildet eine Version „gegoogelt“ von Chromium[12]

Ein weiterer Unterschied besteht darin, dass der Code-Quellcode von Chromium frei zugänglich und modifizierbar ist (contrairement à celui de Google Chrome[15])

Ceci permet d’avoir des déclinaisons de Chromium, zum Beispiel eine Version “portable”[16] für OS X

da Google Chrome unter einer Lizenz propriétaire[18] vertrieben wird

Andere Navigationstasten auf Chromium [Modifikator | Modifikator le code ]

Neben Google Chrome setzen auch die anderen Browser in der Wäsche gerne auf Chromium:

In che modo Googlebot esegue il rendering delle pagine Web? – Martin Splitt Update

Video ansehen

Weitere Informationen zum Thema googlebot image 1.0

In this video, Martin Splitt talks about Googlebot’s Javascript Render capabilities. You can use the links below to follow Martin Splitt.
Linkedin: https://www.linkedin.com/in/martinsplitt/
Twitter: https://twitter.com/g33konaut
Twitch: https://www.twitch.tv/g33konaut
The content of this video is owned by Martin Splitt. It has been added to Youtube to reach more people.
Understand how dynamic rendering works
Dynamic rendering requires your webserver to detect crawlers (for example, by checking the user agent). Requests from crawlers are routed to a renderer, requests from users are served normally. Where needed, the dynamic renderer serves a version of the content that’s suitable to the crawler, for example, it may serve a static HTML version. You can choose to enable the dynamic renderer for all pages or on a per-page basis.
Source: https://developers.google.com/search/docs/guides/dynamic-rendering

googlebot image 1.0 Einige Bilder im Thema

 New  In che modo Googlebot esegue il rendering delle pagine Web? - Martin Splitt
In che modo Googlebot esegue il rendering delle pagine Web? – Martin Splitt New

Weitere Informationen zum Thema googlebot image 1.0

Updating

Suche zum Thema googlebot image 1.0

Updating

Danke dass Sie sich dieses Thema angesehen haben googlebot image 1.0

Articles compiled by Musicsustain.com. See more articles in category: MMO

Leave a Comment