Mit dem Screaming Frog SEO Log File Analyzer können Sie Ihre Log-Dateien hochladen, Suchmaschinen-Bots überprüfen, gecrawlte URLs identifizieren und Suchbot-Daten und -Verhalten analysieren, um wertvolle SEO-Erkenntnisse zu erhalten. Laden Sie es kostenlos herunter oder erwerben Sie eine Lizenz, um weitere Protokollereignisse hochzuladen und zusätzliche Projekte zu erstellen.
Was können Sie mit dem SEO Log File Analyzer tun?
Der Log File Analyzer ist leicht, aber äußerst leistungsstark. Er kann Millionen von Zeilen mit Ereignisdaten für Protokolldateien in einer intelligenten Datenbank verarbeiten, speichern und analysieren. Es sammelt wichtige Protokolldateidaten, damit SEOs fundierte Entscheidungen treffen können.
Einige der häufigsten Verwendungen umfassen:
Durchforstete URLs identifizieren
Anzeigen und analysieren Sie genau, welche URLs Googlebot und andere Such-Bots wann und wie häufig crawlen können.
Ermitteln Sie die Crawling-Häufigkeit
Erhalten Sie Informationen darüber, welche Such-Bots am häufigsten gecrawlt werden, wie viele URLs pro Tag gecrawlt werden und wie viele Bot-Ereignisse insgesamt vorhanden sind.
Finden Sie defekte Links und Fehler
Entdecken Sie alle Antwortcodes, fehlerhaften Links und Fehler, auf die Suchmaschinen-Bots beim Crawlen Ihrer Website gestoßen sind.
Audit-Weiterleitungen
Suchen Sie nach temporären und permanenten Weiterleitungen, auf die Such-Bots stoßen, die sich möglicherweise von denen in einem Browser oder einem simulierten Crawl unterscheiden.
Verbessern Sie das Crawling-Budget
Analysieren Sie Ihre am häufigsten und am wenigsten gecrawlten URLs und Verzeichnisse der Website, um Verschwendung zu identifizieren und die Crawling-Effizienz zu verbessern.
Identifizieren Sie große und langsame Seiten
Überprüfen Sie die durchschnittlich heruntergeladenen Bytes und die Zeit, die benötigt wird, um große Seiten oder Leistungsprobleme zu identifizieren.
Finden Sie ungekriechte und verwaiste Seiten
Importieren Sie eine Liste mit URLs und stimmen Sie diese mit Protokolldateidaten ab, um verwaiste oder unbekannte Seiten oder URLs zu identifizieren, die Googlebot nicht gecrawlt hat.
Kombinieren und vergleichen Sie alle Daten
Importieren Sie alle Daten mit einer 'URLs'-Spalte und vergleichen Sie sie mit den Protokolldateidaten. Importieren Sie daher Crawls, Direktiven oder externe Linkdaten für erweiterte Analysen.
_________________________________________________
Größe: 114 MB Sprache: Englisch Format: Exe Plattform: Windows (32 oder 64-Bit) Hoster: RapidGator.net, Alfafile.net, DDl.to
________________________________________
[Only registered and activated users can see links. ]