פרוטוקול אי הכללת רובוטים
קפיצה לניווט
קפיצה לחיפוש
פרוטוקול אי הכללת רובוטים או robots.txt הוא מוסכמה המאפשרת למנהל אתר אינטרנט (Webmaster) להגדיר כיצד יסרק האתר על ידי מנועי חיפוש ובוטים אחרים המצייתים לפרוטוקול. הגדרה זו מתבצעת באמצעות קובץ בשם robots.txt המכיל תחביר מיוחד ונמצא בספריית השורש (root) של האתר. פרוטוקול זה משמש בעיקר להסתרה של חלקים מסוימים באתר ממנועי חיפוש.
על ידי שימוש בפרוטוקול זה אפשר להורות למנועי חיפוש לסרוק דפים באתר או לא לאנדקס אותם.
ראו גם
קישורים חיצוניים
- אתר האינטרנט הרשמי של פרוטוקול אי הכללת רובוטים
- קובץ robots.txt של המכלול
- מה זה קובץ robot.txt ומה השימוש הנכון עבורו? באתר ZEFO
32044277פרוטוקול אי הכללת רובוטים