Crawlability – Umiejętność robotów wyszukiwarki do przeglądania i indeksowania stron WWW. Roboty przeglądają strony internetowe i podążają za linkami na tych stronach, podobnie jak w przypadku przeglądania treści w Internecie. Przechodzą od linku do linku i przenoszą dane o tych stronach z powrotem na serwery Google. W pozycjonowaniu stron należy zadbać o to, aby roboty wyszukiwarki bez trudu mogły odpowiednio pobierać treści stron. Można to zrobić korzystając z narzędzia Google Search Console. Narzędzie to poinformuje nas czy dana strona pobiera się poprawnie. W niektórych przypadkach skrypty potrafią skutecznie zablokować odpowiednie renderowanie strony, przez co Google może zaniżać pozycje strony w wynikach wyszukiwania.
Crawlability
Pozostałe wyrażenia które mogą cię zainteresować:
- Disavow backlinks
- SSL – Co to jest certyfikat SSL?
- Czym są wyniki wyszukiwania?
- Google Merchant Center – Co to jest?
- Co to jest ruch organiczny?
- Współczynnik Konwersji
- Google Search Console
- User Generated Content (UGC)
- Broken link building
- Co to jest Webmaster Guidelines?
- Konwersja
- Co to jest JSON-LD?
- Google Ads Keyword Planner
- Hasło Reklamowe – Co to jest?
- Co to jest WebP?
- Anchor Text
- Cost Per Click (CPC)
- Copywriting – Co to jest?
- Co to jest Link Afiliacyjny?
- Co to jest Framework?