Crawlability – Umiejętność robotów wyszukiwarki do przeglądania i indeksowania stron WWW. Roboty przeglądają strony internetowe i podążają za linkami na tych stronach, podobnie jak w przypadku przeglądania treści w Internecie. Przechodzą od linku do linku i przenoszą dane o tych stronach z powrotem na serwery Google. W pozycjonowaniu stron należy zadbać o to, aby roboty wyszukiwarki bez trudu mogły odpowiednio pobierać treści stron. Można to zrobić korzystając z narzędzia Google Search Console. Narzędzie to poinformuje nas czy dana strona pobiera się poprawnie. W niektórych przypadkach skrypty potrafią skutecznie zablokować odpowiednie renderowanie strony, przez co Google może zaniżać pozycje strony w wynikach wyszukiwania.
Crawlability
Pozostałe wyrażenia które mogą cię zainteresować:
- Co to jest indeksowanie?
- Co to jest 502 bad gateway?
- Black Hat SEO (BHS)
- Answer Boxes
- Słownik SEO SEM
- Behavior Flow Report
- Geolokalizacja – Co to jest?
- Bing Ads
- Keyword Stuffing
- Konwersja
- User Intent
- Co to jest Framework?
- Thin content
- Co to jest przekierowanie 301?
- Wyszukiwanie konwersacyjne
- Co to jest JSON-LD?
- Co to jest nazwa domeny?
- Nagłówki w SEO (H1, H2, H3, itd.)
- Co to jest UTM?
- Anchor Text