Crawlability – Umiejętność robotów wyszukiwarki do przeglądania i indeksowania stron WWW. Roboty przeglądają strony internetowe i podążają za linkami na tych stronach, podobnie jak w przypadku przeglądania treści w Internecie. Przechodzą od linku do linku i przenoszą dane o tych stronach z powrotem na serwery Google. W pozycjonowaniu stron należy zadbać o to, aby roboty wyszukiwarki bez trudu mogły odpowiednio pobierać treści stron. Można to zrobić korzystając z narzędzia Google Search Console. Narzędzie to poinformuje nas czy dana strona pobiera się poprawnie. W niektórych przypadkach skrypty potrafią skutecznie zablokować odpowiednie renderowanie strony, przez co Google może zaniżać pozycje strony w wynikach wyszukiwania.
Crawlability
Pozostałe wyrażenia które mogą cię zainteresować:
- Historia Wyszukiwania – Co to jest?
- Google Moja Firma
- Co to jest 403 Forbidden?
- Lejek konwersji
- Behavior Flow Report
- Disavow Links Tool
- Copywriting
- SSL – Co to jest certyfikat SSL?
- Czym jest aktualizacja Pingwin?
- Co to jest WebP?
- AIDA
- Crawl Budget
- Co to jest pozycja w Google?
- Barnacle SEO
- Czym jest WordPress?
- Broken link building
- Co to jest Domain Authority (DA)?
- Structured Data (Schema.org)
- Sitemap
- Answer Boxes