Crawlability – Umiejętność robotów wyszukiwarki do przeglądania i indeksowania stron WWW. Roboty przeglądają strony internetowe i podążają za linkami na tych stronach, podobnie jak w przypadku przeglądania treści w Internecie. Przechodzą od linku do linku i przenoszą dane o tych stronach z powrotem na serwery Google. W pozycjonowaniu stron należy zadbać o to, aby roboty wyszukiwarki bez trudu mogły odpowiednio pobierać treści stron. Można to zrobić korzystając z narzędzia Google Search Console. Narzędzie to poinformuje nas czy dana strona pobiera się poprawnie. W niektórych przypadkach skrypty potrafią skutecznie zablokować odpowiednie renderowanie strony, przez co Google może zaniżać pozycje strony w wynikach wyszukiwania.
Crawlability
Pozostałe wyrażenia które mogą cię zainteresować:
- Adres IP
- Voice Search
- Keyword Stuffing
- Jak sprawdzić pozycjonowanie strony?
- Structured Data (Schema.org)
- Exact Match Domain
- Crawl Budget
- Rozmiar Zdjęcia – Co to jest?
- Co to jest User Agent?
- Co to jest artykuł sponsorowany?
- Ban w Google
- Co to jest LinkedIn?
- Kim jest Webmaster?
- Nagłówki w SEO (H1, H2, H3, itd.)
- Geolokalizacja – Co to jest?
- Co to jest Domain Authority (DA)?
- Co to jest atrybut Dofollow?
- Cost Per Click (CPC)
- Co to jest FTP?
- Co to jest Webmaster Guidelines?