Wir haben 208K Webseiten analysiert. Das haben wir über Core Web Vitals und UX gelernt

Wir haben 208.085 Webseiten analysiert, um mehr darüber zu erfahren Core Web Vitals.

Zuerst haben wir Benchmarks für die kumulative Layoutverschiebung, die erste Eingabeverzögerung und die größte inhaltsreiche Farbe erstellt.

Dann haben wir uns die Korrelation zwischen Core Web Vitals und Benutzererfahrungsmetriken (wie Absprungrate) angesehen.

Dank der Daten von WebCEO, konnten wir einige interessante Erkenntnisse aufdecken.

Tauchen wir direkt in die Daten ein.

Hier ist eine Zusammenfassung unserer wichtigsten Ergebnisse:

1. 53,77% der Websites hatten einen guten Largest Contentful Paint (LCP)-Score. 46,23 % der Websites hatten LCP-Bewertungen mit „schlecht“ oder „verbesserungsbedürftig“.

2. 53,85% der Websites in unserem Datensatz hatten optimale First Input Delay (FID)-Bewertungen. Nur 8,57 % der Websites hatten einen „schlechten“ FID-Score.

3. 65,13 % der analysierten Websites wiesen gute optimale kumulative Layout-Shift-Werte (CLS) auf.

4. Der durchschnittliche LCP der von uns analysierten Websites lag bei 2.386 Millisekunden.

5. Der durchschnittliche FID war 137,74 Millisekunden.

6. Der durchschnittliche CLS-Score war 0,14. Dies ist etwas höher als die optimale Punktzahl.

7. Die häufigsten Probleme mit Auswirkungen auf LCP waren hohe Anforderungszahlen und große Transfermengen.

8. Große Layoutverschiebungen waren die Hauptursache für schlechte CLS-Werte.

9. Das häufigste Problem, das FID betraf, war eine ineffiziente Cache-Richtlinie.

10. Da war eine schwache Korrelation zwischen Core Web Vital-Scores und UX-Metriken.

11. Das haben wir gefunden FID korrelierte tendenziell leicht mit Seitenaufrufen.

53,77% der Websites hatten einen optimalen größten Contentful Paint Score

Unser erstes Ziel war es, zu sehen, wie jede Website basierend auf die drei Faktoren, die die Core Web Vitals von Google ausmachen: Größte Contentful Paint, kumulative Layoutverschiebung und erste Eingabeverzögerung.

Insbesondere wollten wir den Prozentsatz der Seiten ermitteln, die in der Search Console jeder Website als „gut“, „verbesserungsbedürftig“ und „schlecht“ eingestuft wurden.

Dazu haben wir anonymisierte Google Search Console-Daten von 208.000 Seiten (ca. 20.000 Seiten insgesamt) analysiert.

Unsere erste Aufgabe: analysieren LCP (Large Contentful Paint). Einfach ausgedrückt misst LCP, wie lange eine Seite braucht, um ihren sichtbaren Inhalt zu laden.

So schnitten die von uns analysierten Websites ab:

53,77% der Websites hatten einen optimalen höchsten Contentful Paint Score

  • Gut: 53,77%
  • Verbesserungsbedürftig: 28,76%
  • Schlecht: 17,47 %

Wie Sie sehen können, hatte die Mehrheit der von uns betrachteten Websites eine „gute“ LCP-Bewertung. Dies war höher als erwartet, insbesondere unter Berücksichtigung anderer Benchmarking-Bemühungen (wie dieser von iProspect).

Es kann sein, dass die Websites in unserem Datensatz besonders sorgfältig auf die Seitenleistung achten. Oder es kann zum Teil auf einen Unterschied in der Stichprobengröße zurückzuführen sein (die iProspect-Analyse überwacht kontinuierlich 1.500 Websites. Wir haben mehr als 20.000 analysiert).

In jedem Fall ist es ermutigend zu sehen, dass nur etwa die Hälfte aller Websites an ihrem LCP arbeiten müssen.

53,85% der von uns analysierten Websites hatten gute Bewertungen für die Verzögerung bei der ersten Eingabe.

Als Nächstes haben wir uns die von der Search Console gemeldeten Berichte angesehen Erste Eingangsverzögerung (FID) Bewertungen. Wie der Name schon sagt, misst FIP ​​die Verzögerung zwischen der ersten Anfrage und der Möglichkeit, etwas einzugeben (z. B. einen Benutzernamen einzugeben).

Hier ist eine Aufschlüsselung der FID-Werte aus unserem Datensatz:

53,85% der von uns analysierten Websites hatten gute Bewertungen der ersten Eingabeverzögerung

  • Gut: 53,85%
  • Verbesserungsbedürftig: 37,58%
  • Schlecht: 8,57%

Auch hier hatte etwas mehr als die Hälfte der von uns untersuchten Websites „gute“ FID-Bewertungen.

Interessanterweise hatten nur sehr wenige (8,57%) „schlechte“ Werte. Dies zeigt, dass eine relativ kleine Anzahl von Websites wahrscheinlich negativ betroffen sein wird, sobald Google FID in seinen Algorithmus integriert.

65,13% der Websites hatten einen optimalen kumulativen Layout-Shift-Score

Schließlich haben wir uns die Kumulative Layoutverschiebung (CLS) Bewertungen aus der Search Console.

CLS ist ein Maß dafür, wie sich Elemente auf einer Seite beim Laden bewegen. Seiten, die während des Ladevorgangs relativ stabil sind, haben hohe (gute) CLS-Werte.

Hier sind die CLS-Bewertungen unter den von uns analysierten Websites:

65,13% der Websites hatten einen optimalen kumulativen Layout-Shift-Score

  • Gut: 65,13%
  • Verbesserungsbedürftig: 17,03%
  • Schlecht: 17,84%

Unter den drei Core Web Vitals-Scores war CLS tendenziell am wenigsten problematisch. Tatsächlich müssen nur etwa 35 % der von uns analysierten Websites an ihrem CLS arbeiten.

Der durchschnittliche LCP beträgt 2.836 Millisekunden

Als nächstes wollten wir Benchmarks für jede Core Web Vital-Metrik erstellen. Wie oben erwähnt, hat Google erstellt ihre eigenen Richtlinien für jedes Core Web Vital.

(Beispielsweise gilt ein „gutes“ LCP als unter 2,5 Sekunden.)

Wir hatten jedoch keine groß angelegte Analyse gesehen, bei der versucht wurde, jede Core Web Vital-Metrik „in freier Wildbahn“ zu vergleichen.

Zuerst haben wir die LCP-Scores für die Sites in unserer Datenbank verglichen.

Unter den von uns analysierten Websites ergab sich ein durchschnittlicher LCP von 2.836 Millisekunden (2,8 Sekunden).

Der durchschnittliche LCP beträgt 2,836 Millisekunden

Hier sind die häufigsten Probleme, die sich negativ auf die LCP-Leistung ausgewirkt haben:

Probleme mit LCP

  • Hohe Anforderungszahlen und große Transfergrößen (100 % der Seiten)
  • Hohe Netzwerkumlaufzeit (100 % der Seiten)
  • Kritische Anfrageketten (98,9 % der Seiten)
  • Hohe anfängliche Serverantwortzeit (57,4 % der Seiten)
  • Bilder werden nicht im Next-Gen-Format bereitgestellt (44,6% der Seiten)

Insgesamt hatten 100 % der Seiten hohe LCP-Werte, zumindest teilweise aufgrund von „Hohe Anforderungszahlen und große Transfergrößen“. Mit anderen Worten, Seiten, die viel Code, große Dateigrößen oder beides enthalten.

Dieses Ergebnis steht im Einklang mit einer anderen von uns durchgeführten Analyse, bei der festgestellt wurde, dass große Seiten tendenziell die Ursache für die meisten langsam ladenden Seiten sind.

Der durchschnittliche FID beträgt 137,4 Millisekunden

Wir haben uns dann die FID-Scores auf den Seiten in unserem Datensatz angesehen.

Insgesamt betrug die durchschnittliche First Input Delay 137,4 Millisekunden:

Der durchschnittliche FID beträgt 137,4 Millisekunden

Hier sind die häufigsten FID-bezogenen Probleme, die wir entdeckt haben:

Probleme mit FID

  • Ineffiziente Cache-Richtlinie (87,4 % der Seiten)
  • Lange Hauptthread-Aufgaben (78,4 % der Seiten)
  • Ungenutztes JavaScript (54,1% der Seiten)
  • Ungenutztes CSS (38,7% der Seiten)
  • Übermäßige Größe des Dokumentobjektmodells (22,3 % der Seiten)

Es war interessant zu sehen, dass Caching-Probleme sich eher negativ auf FID auswirkten als jedes andere Problem. Und es überrascht nicht, dass hinter vielen hohen FID-Werten schlecht optimierter Code (in Form von ungenutztem JS und CSS) steckte.

Der durchschnittliche CLS beträgt 0,14

Wir haben festgestellt, dass der durchschnittliche CLS-Score 0,14 beträgt.

Der durchschnittliche CLS beträgt 0,14

Dieser Messwert untersucht speziell, wie sich der Inhalt einer Seite „verschiebt“. Alles unter 0,1 wird in der Search Console als „gut“ bewertet.

Zu den häufigsten Problemen, die das CLS der Projekte beeinflussten, gehörten:

Probleme mit CLS

  • Große Layoutverschiebungen (94,5% der Seiten)
  • Renderblockierende Ressourcen (86,3 % der Seiten)
  • Text beim Laden von Webfonts ausgeblendet (82,6% der Seiten)
  • Nicht vorgeladene Schlüsselanfragen (26,7% der Seiten)
  • Bilder mit falscher Größe (24,7% der Seiten)

Wie LCP mit dem Benutzerverhalten korreliert

Nachdem nun Benchmarks festgelegt wurden, wollten wir herausfinden, wie genau Core Web Vitals die reale Benutzererfahrung widerspiegelt.

Tatsächlich ist diese Beziehung etwas, das Google selbst in seiner Dokumentation zum „Core Web Vitals-Bericht“ hervorhebt:

Google – Warum die Seitenleistung wichtig ist

Um Core Web Vitals und ihre Auswirkungen auf UX zu analysieren, haben wir uns entschieden, drei UX-Metriken zu betrachten, die das Benutzerverhalten auf Webseiten darstellen sollen:

  • Absprungrate (% der Nutzer, die die Seite einer Website beim Besuch verlassen)
  • Seitentiefe pro Sitzung (wie viele Seiten Benutzer sehen, bevor sie die Website verlassen)
  • Zeit auf der Website (wie viel Zeit Benutzer in einer einzigen Sitzung auf einer Website verbringen)

Unsere Hypothese lautete wie folgt: Wenn Sie die Core Web Vitals einer Website verbessern, wirkt sich dies positiv auf die UX-Metriken aus.

Mit anderen Worten, eine Website mit „guten“ Core Web Vitals hat eine niedrigere Absprungrate, längere Sitzungen und höhere Seitenaufrufe. Glücklicherweise enthielt dieser Datensatz neben Search Console-Daten auch UX-Metriken von Google Analytics.

Dann mussten wir einfach die Core Web Vitals jeder Website mit jeder UX-Kennzahl vergleichen. Nachfolgend finden Sie unsere Ergebnisse für LCP:

LCP und Absprungrate

Korrelation zwischen LCP und Absprungrate

LCP und Seiten pro Sitzung

Korrelation zwischen LCP und Seiten pro Sitzung

LCP und Zeit vor Ort

Korrelation zwischen LCP und Zeit vor Ort

In den drei Diagrammen war klar, dass alle drei verschiedenen Segmente (Gut, Schlecht und Verbesserungsbedürftig) einigermaßen gleichmäßig auf dem Diagramm verteilt sind.

Mit anderen Worten, es gab keine direkte Beziehung zwischen LCP- und UX-Metriken.

FID hat eine leichte Beziehung zu Seitenaufrufen

Als nächstes haben wir uns die mögliche Beziehung zwischen First Input Delay und Benutzerverhalten angesehen.

Wie bei LCP ist es logisch, dass sich ein schlechter FID negativ auf die UX-Metriken (insbesondere die Absprungrate) auswirken würde.

Ein Benutzer, der warten muss, um aus einem Menü zu wählen oder sein Passwort einzugeben, wird wahrscheinlich frustriert und abprallen. Und wenn sich diese Erfahrung auf mehrere Seiten überträgt, kann dies dazu führen, dass sie ihre Gesamtseitenaufrufe reduzieren.

Damit korrelierte FID mit ihren Verhaltensmetriken.

FID und Absprungrate

Korrelation zwischen FID und Absprungrate

FID und Seiten pro Sitzung

Korrelation zwischen FID und Seiten pro Sitzung

Notiz: Wir haben festgestellt, dass ein hoher FID tendenziell mit einer geringen Anzahl von Seiten pro Sitzung korreliert. Das Gegenteil war auch der Fall.

FID und Zeit vor Ort

Korrelation zwischen FID und Zeit vor Ort

Insgesamt sehen wir nur Hinweise auf eine Korrelation, wenn wir FID mit der Anzahl der pro Sitzung aufgerufenen Seiten vergleichen. In Bezug auf Absprungrate und Verweildauer auf der Website scheint die FID einer Website keinen Einfluss auf das Nutzerverhalten zu haben.

Wie sich CLS auf das Benutzerverhalten auswirkt

Als Nächstes wollten wir einen möglichen Zusammenhang zwischen CLS und Benutzeraktivität untersuchen.

Es erscheint logisch, dass ein schlechter CLS die Benutzer frustrieren würde. Und könnte daher die Absprungrate erhöhen und die Sitzungszeit verkürzen.

Wir konnten jedoch keine Fallstudien oder groß angelegte Analysen finden, die belegen, dass hohe CLS-Werte das Nutzerverhalten beeinflussen. Daher haben wir uns entschlossen, eine Analyse durchzuführen, die nach möglichen Zusammenhängen zwischen CLS, Absprungrate, „Verweildauer“ und aufgerufenen Seiten sucht. Folgendes haben wir gefunden:

CLS und Absprungrate

Korrelation zwischen CLS und Absprungrate

CLS und Seiten pro Sitzung

Korrelation zwischen CLS und Seiten pro Sitzung

CLS und Zeit vor Ort

Korrelation zwischen CLS und Zeit vor Ort

Insgesamt konnten wir keine signifikante Korrelation zwischen CLS, Absprungrate, Verweildauer auf der Website oder Seitenaufrufen feststellen.

Zusammenfassung

Ich hoffe, Sie fanden diese Analyse interessant und nützlich (insbesondere mit Aktualisierung der Seitenerfahrung von Google unterwegs).

Hier ist ein Link zu der Rohdatensatz die wir benutzt haben. Zusammen mit unsere Methoden.

Ich möchte SEO-Software danken WebCEO für die Bereitstellung der Daten, die diese Branchenstudie ermöglicht haben.

Insgesamt war es interessant zu sehen, dass die meisten der von uns analysierten Websites relativ gut abgeschnitten haben. Und sind weitgehend bereit für das Google-Update. Und es war interessant festzustellen, dass Core Web Vitals zwar Metriken für eine positive UX auf einer Website darstellen, wir jedoch keine Korrelation mit Verhaltensmetriken sahen.

Jetzt würde ich gerne von Ihnen hören:

Was ist Ihre wichtigste Erkenntnis aus der heutigen Studie? Oder vielleicht haben Sie eine Frage zu etwas aus der Analyse. Hinterlassen Sie in jedem Fall gleich unten einen Kommentar.

Leave a Reply

Your email address will not be published. Required fields are marked *