Crawlability – Umiejętność robotów wyszukiwarki do przeglądania i indeksowania stron WWW. Roboty przeglądają strony internetowe i podążają za linkami na tych stronach, podobnie jak w przypadku przeglądania treści w Internecie. Przechodzą od linku do linku i przenoszą dane o tych stronach z powrotem na serwery Google. W pozycjonowaniu stron należy zadbać o to, aby roboty wyszukiwarki bez trudu mogły odpowiednio pobierać treści stron. Można to zrobić korzystając z narzędzia Google Search Console. Narzędzie to poinformuje nas czy dana strona pobiera się poprawnie. W niektórych przypadkach skrypty potrafią skutecznie zablokować odpowiednie renderowanie strony, przez co Google może zaniżać pozycje strony w wynikach wyszukiwania.
Crawlability
Pozostałe wyrażenia które mogą cię zainteresować:
- Co to jest przekierowanie 301?
- Słownik SEO SEM
- Linki Przychodzące
- Zero Moment of Truth (ZMOT)
- Content pruning
- Voice Search
- Co to jest 502 bad gateway?
- Google Adsense
- Co to jest JSON-LD?
- Co to jest FTP?
- Duplicate Content
- Cost Per Click (CPC)
- User Generated Content (UGC)
- Sponsored Links
- Google Analytics
- Co to jest Webmaster Guidelines?
- Co to jest Framework?
- Broken links
- Co to jest Link Afiliacyjny?
- Czym są opinie w Google?