חיפוש ]

האופן בו גוגל ומנועי חיפוש מתייחסים לכתובות URL

מנועי חיפוש זקוקים לכתובת אתר ייחודית לכל עמוד כדי לאפשר סריקה ויצירת אינדקס וכדי להפנות את המשתמשים לעמוד זה. בואו נסביר מעט על המבנה של כתובת URL ונתאר כיצד מנועי חיפוש מתייחסים לכתובות אלו. ניתן לומר כי באופן כללי כתובת URL מתפצלת למספר חלקים באופן הבא:

protocol://hostname/path/filename?querystring#fragment

לדוגמה:

https://www.example.co.il/walkingshoes/womens.html?size=8#info

מעבר לכתובת הקובץ עצמו בדוגמה מעלה (שמסתיים ב-womens.html), ניתן לראות כי ישנו פרמטר בשם size אליו מתייחסים כ-Query String, ובנוסף ישנו פרמטר נוסף בשם info אליו מתייחסים כ-Fragment (החלק שאחרי הסימן #) בשפה המקצועית.

אותם Query Strings בכתובת ה-URL מעבירים מידע בו ניתן להשתמש בעמוד המדובר. Fragments לעומתם משמשים על מנת לזהות את החלק בעמוד אליו תתבצע גלילה בדפדפן (מבוסס ID של אלמנט HTML כלשהו הקיים בעמוד).

חשוב לציין כי גוגל ומנועי חיפוש מתעלמים לחלוטין מאותם Fragments אך בהחלט מתייחסים ל-Query Strings. לכן, כאשר ישנו שימוש רחב בפרמטרים מסוג זה (חנויות דיגיטליות למשל), עליכם לוודא כי מנועי החיפוש יתייחסו לכתובת URL זהה אך בעלת Query String שונה ככתובת אחת, אחרת הם עלולים להתייחס לאותה כתובת בעלת פרמטר שונה ככתובת שונה או כתוכן משוכפל.

חסימת מנועי חיפוש ושימוש בכתובות קנוניות

באפשרותכם לחסום מנועי חיפוש מלסרוק כתובות אלו על ידי קובץ robots.txt ונכון לעשות זאת בלא מעט מקרים. הדרך לחסום כתובות עם Query Strings מתבצעת בצורה הבאה:

User-agent: *
Disallow: *?dir=*
Disallow: *&order=*
Disallow: *?price=*

חסימה ב-robots.txt מונעת סריקה אך לא אינדוקס. אם גוגל מגלה את הכתובות האלו דרך קישורים בדפים אחרים, היא עלולה לאנדקס אותם בלי לסרוק את תוכנם. למניעת כפילויות באופן אמין, השתמשו בכתובות קנוניות במקום – או בנוסף – לכללי robots.txt.

בהמון מקרים הדרך הנכונה לפתור מצבים אלו היא שימוש בכתובות קנוניות הלא הן חלק בלתי נפרד מביצוע SEO טכני נכון. עליכם לדאוג כי לכל הכתובות עם הפרמטרים השונים קיימת כתובת קנונית לכתובת ה-URL של קטגורית הבסיס (Base Category).

הנה מספר דוגמאות להמחשה (הסרתי את הפרוטוקול לצורך נוחות הטבלה):

URL/Page TypeVisible URLCanonical URL
Base Category URLdomain.co.il/page-slugdomain.co.il/page-slug
Social Tracking URLdomain.co.il/page-slug?utm_source=twitterdomain.co.il/page-slug
Affiliate Tracking URLdomain.co.il/page-slug?a_aid=123456domain.co.il/page-slug
Sorted Category URLdomain.co.il/page-slug?dir=asc&order=pricedomain.co.il/page-slug
Filtered Category URLdomain.co.il/page-slug?price=13domain.co.il/page-slug

הבחנה בין סוגי הכתובות השונות

גוגל ושאר מנועי החיפוש מתייחסים לכתובות עם WWW וללא WWW ככתובות שונות. כנ״ל לגבי כתובות HTTP לעומת HTTPS.

כאשר מוסיפים את האתר לקונסולת החיפוש של גוגל (Search Console), הגישה המומלצת היא להשתמש ב-Domain property, שמכסה את כל וריאציות הכתובת (http, https, www, ללא www) בנכס אחד. אם משתמשים בשיטה הישנה יותר של URL-prefix, יש להוסיף כל וריאציה בנפרד.

מעבר לכך, יש להבחין בין כתובות המסתיימות בקו נטוי סוגר (/) לכתובות ללא אותו קו נטוי הנקרא Trailing Slash בשפה המקצועית. אם מסתכלים על הכתובת הראשית של הדומיין, גוגל אינה מחשיבה קו נטוי זה ככתובת שונה, לדוגמה – הכתובת https://example.co.il/‎ זהה לכתובת https://example.co.il.

לעומת זאת, בנתיב המופיע לאחר הכתובת הראשית יש להבחין בין שני המקרים. למשל, הכתובת https://example.co.il/dogs אינה זהה לכתובת https://example.co.il/dogs/‎.

למידע נוסף על אותו קו נטוי תנו מבט במדריך חשיבות ה-Trailing Slash בכתובות URL.

שאלות נפוצות

שאלות נפוצות בנושא אופן הטיפול של מנועי חיפוש בכתובות URL:

האם גוגל מתייחסת ל-HTTP ו-HTTPS כאותה כתובת?
לא. גוגל מתייחסת ל-http://example.com ול-https://example.com ככתובות שונות. כנ״ל לגבי גרסאות עם www וללא www. כדי למנוע בעיות תוכן כפול, בחרו גרסה אחת והפנו את האחרות אליה באמצעות הפניות 301, והגדירו כתובת קנונית בכל הדפים.
האם גוגל מאנדקסת כתובות שחסומות ב-robots.txt?
כן, היא יכולה. חסימת כתובת ב-robots.txt מונעת מגוגל לסרוק אותה, אך אם גוגל מוצאת קישורים לכתובת זו במקומות אחרים, היא עלולה לאנדקס את הדף על סמך אותות חיצוניים כמו טקסט עוגן. כדי למנוע אינדוקס, השתמשו בתגית noindex או בכתובות קנוניות.
מה ההבדל בין Query String לבין Fragment בכתובת URL?
Query String (החלק שאחרי ?) שולח פרמטרים לשרת ויכול לשנות את תוכן הדף. גוגל מתייחסת לכתובות עם Query Strings שונים כדפים שונים בפוטנציה. Fragment (החלק שאחרי #) מטופל כולו בדפדפן לצורך ניווט בתוך הדף ולעולם אינו נשלח לשרת. גוגל מתעלמת מ-Fragments לחלוטין.
מה עדיף לשימוש עבור דפי פרמטרים - robots.txt או כתובות קנוניות?
כתובות קנוניות הן הגישה המועדפת. הן מורות לגוגל איזו גרסה של הדף היא "המקורית" ומאחדות את ערך הקישורים לגרסה זו. ניתן להשתמש ב-robots.txt כאמצעי נוסף לחיסכון בתקציב הסריקה, אך כשלעצמו הוא אינו מונע אינדוקס. לתוצאות הטובות ביותר, השתמשו בשניהם יחד.
האם עדיין צריך להוסיף ארבעה נכסים ל-Google Search Console?
לא אם משתמשים ב-Domain property. Google Search Console תומכת כיום באימות ברמת הדומיין (באמצעות DNS), שמכסה את כל וריאציות הכתובת - http, https, www וללא www - בנכס אחד. אם משתמשים בשיטה הישנה של URL-prefix, עדיין יש צורך בנכס נפרד לכל וריאציה.
דיון ותגובות
0 תגובות  ]

השאירו תגובה

הוסיפו קוד באמצעות הכפתורים מטה. למשל, בכדי להוסיף PHP לחצו על הכפתור PHP והוסיפו את הקוד בתוך השורטקוד. מצאתם שגיאה בפוסט? עדכנו אותנו...

Savvy WordPress Development official logo