سلام! من سارا بحرانیام. خیلیها وقتی سایت وردپرسیشون رو راه میندازن، فکر میکنن همین که پیکربندی اولیه و افزونه های حیاتی سئو رو انجام دادن و چند تا مقاله منتشر کردن، کار تمومه. اما این تازه اول راهه! تو باید به گوگل بگی دقیقاً «کجا» رو بگرده و «کجا» رو نادیده بگیره.
اگه این کار رو درست انجام ندی، گوگل بودجه خزش (Crawl Budget) ارزشمندش رو صرف صفحات بیاهمیت سایتت (مثل نتایج جستجوی داخلی یا پوشه پلاگینها) میکنه و اصلاً به مقالههای جدید و مهمت نمیرسه. یا بدتر از اون، ممکنه ندونسته با یه دستور اشتباه، جلوی دسترسی گوگل به کل سایتت رو بگیری!
ابزار قدرتمند تو برای مدیریت این ترافیک رباتها، یه فایل متنی ساده اما فوقالعاده حیاتی به اسم robots.txt هست. تو این راهنمای کامل، میخوام بهت یاد بدم این فایل دقیقاً چیه، چطور پیداش کنی، چطور بهینهسازیش کنی و از چه اشتباهات فاجعهباری باید فرار کنی.
جدول کاربردی: چکلیست بایدها و نبایدهای robots.txt
قبل از اینکه عمیق بشیم، این جدول رو ببین. این چکلیست، خلاصهی تمام کارهاییه که باید (و نباید) با فایل robots.txt سایتت انجام بدی:
| ردیف | ✅ بایدها (Do’s) | ❌ نبایدها (Don’ts) |
| ۱ | نقشه سایت (Sitemap) رو اضافه کن: حتماً آدرس نقشه سایتت رو تو فایل بذار تا گوگل سریعتر صفحاتت رو پیدا کنه. | از Disallow: / استفاده نکن: این دستور فاجعهبار کل سایتت رو از دسترس گوگل خارج میکنه. |
| ۲ | نتایج جستجوی داخلی رو مسدود کن: دستور Disallow: /?s= جلوی هدر رفتن بودجه خزش روی صفحات بیارزش رو میگیره. | فایلهای CSS و JS رو بلاک نکن: گوگل برای «رندر» (دیدن) درست سایتت به این فایلها نیاز داره. |
| ۳ | فقط پوشههای غیرضروری رو مسدود کن: مثل پوشههای plugins یا cache. | برای Noindex کردن استفاده نکن: این فایل جلوی خزش رو میگیره، نه ایندکس. برای حذف صفحه از نتایج، فقط از تگ noindex استفاده کن. |
| ۴ | از ابزار تستر گوگل (GSC) استفاده کن: همیشه قبل و بعد از تغییرات، فایلت رو تو سرچ کنسول تست کن. | حروف بزرگ/کوچک رو نادیده نگیر: مسیرها (Paths) در robots.txt به حروف بزرگ و کوچک حساس هستن (Case-Sensitive). |
| ۵ | جلوی رباتهای اسپم رو بگیر (اختیاری): میتونی User-agent رباتهای مخرب رو شناسایی و Disallow کنی. | فایلهای مهم هاست رو ویرایش نکن: اگه از طریق هاست ویرایش میکنی، مراقب باش فایل .htaccess رو اشتباهی تغییر ندی! |
فایل robots.txt چیست و چرا برای سئوی وردپرس حیاتی است؟
robots.txt به زبان ساده: مدیر ترافیک رباتهای موتور جستجو
بذار خیلی ساده بهت بگم: robots.txt یه فایل متنی (text file) کاملاً سادهست که باید دقیقاً تو پوشه ریشه (root) سایتت قرار بگیره. (یعنی اگه دامنه تو example.com هست، این فایل باید در آدرس example.com/robots.txt قابل دسترس باشه).
وظیفه اصلی این فایل اینه که با رباتهای موتور جستجو (که بهشون “خزنده” یا “Crawler” هم میگیم) حرف بزنه و بهشون بگه به کجای سایتت اجازه دارن سرک بکشن (بخزن یا Crawl کنن) و کدوم بخشها رو باید نادیده بگیرن.
این فایل یه جورایی نقش مدیر ترافیک یا همون نگهبان دمِ درِ سایتت رو بازی میکنه.
دستورات اصلی که تو این فایل استفاده میکنی معمولاً اینها هستن:
- User-agent: این دستور مشخص میکنه که داری با کدوم ربات حرف میزنی. مثلاً User-agent: * یعنی «ای همه رباتها…» و User-agent: Googlebot یعنی «ای ربات گوگل…».
- Disallow: این دستور به ربات میگه «این آدرس یا پوشه رو نخز» (Crawl نکن). مثلاً Disallow: /wp-admin/ یعنی لطفاً وارد بخش مدیریت وردپرس من نشو.
- Allow: این دستور (که کمتر اما هوشمندانه استفاده میشه) برعکس Disallow عمل میکنه. مثلاً اگه یه پوشه رو Disallow کردی، میتونی یه فایل خاص داخل اون پوشه رو Allow کنی.
درک تفاوت فایل robots.txt مجازی وردپرس و فایل فیزیکی
اینجاست که خیلی از کاربرای وردپرس گیج میشن و این یه نکته خیلی مهمه.
۱. فایل مجازی (Virtual) وردپرس: وردپرس بهطور پیشفرض یه فایل robots.txt مجازی در حافظهش داره. یعنی چی؟ یعنی حتی اگه تو هیچ فایلی هم تو هاستت نساخته باشی، وقتی آدرس yourdomain.com/robots.txt رو تو مرورگرت باز کنی، یه سری دستورات پیشفرض وردپرس رو میبینی. این دستورات مجازی معمولاً جلوی خزش پوشههای اصلی وردپرس مثل wp-admin و wp-includes رو میگیرن.
۲. فایل فیزیکی (Physical): این فایلیه که تو میسازی. تو میتونی یه فایل متنی ساده به اسم robots.txt بسازی و اون رو تو پوشه ریشه سایتت (معمولاً public_html) آپلود کنی.
نکته طلایی اینجاست: به محض اینکه تو یه فایل robots.txt فیزیکی تو هاستت آپلود میکنی، اون فایل فیزیکی، فایل مجازی وردپرس رو لغو میکنه (Override میکنه) و از این به بعد، رباتها فقط به دستورات فایل فیزیکی تو گوش میدن.
چرا این مهمه؟ چون فایل پیشفرض و مجازی وردپرس خوبه، اما عالی نیست. برای سئوی حرفهای، تو باید کنترل کامل روی این فایل داشته باشی. خوشبختانه، افزونههای سئوی محبوب مثل Yoast SEO یا Rank Math به تو اجازه میدن که خیلی راحت و بدون نیاز به دسترسی به هاست، یه فایل robots.txt فیزیکی بسازی و ویرایشش کنی.
آیا اصلاً به فایل robots.txt در وردپرس نیاز داریم؟
جواب کوتاه: بله، حتماً! اما نه به اون دلیلی که اکثر مردم فکر میکنن.
یه باور غلط و خیلی رایج اینه که از robots.txt برای ایندکس نشدن (Noindex) صفحات استفاده میشه. این کاملاً اشتباهه!
- اگه میخوای صفحهای تو نتایج گوگل نباشه (ایندکس نشه)، باید از تگ meta robots با مقدار noindex تو <head> اون صفحه استفاده کنی.
- فایل txt فقط جلوی خزش (Crawl) رو میگیره. یعنی به ربات میگه «زحمت نکش اصلاً این صفحه رو بخونی و بررسی کنی».
پس چرا بهش نیاز داریم؟ ما از robots.txt استفاده میکنیم تا جلوی خزش رباتها تو بخشهای بیارزش سایت رو بگیریم. بخشهایی مثل:
- صفحات مدیریت وردپرس (/wp-admin/)
- فایلهای هسته وردپرس و پلاگینها
- صفحات نتایج جستجوی داخلی سایت
- صفحات تگ یا آرشیوهای تاریخ که نمیخوایم روشون تمرکز سئویی داشته باشیم.
و مهمترین دلیل استفاده ازش، مدیریت «بودجه خزش» هست.
تأثیر مستقیم robots.txt بر بودجه خزش (Crawl Budget)
این مهمترین دلیلیه که تو بهعنوان یه متخصص سئو (یا صاحب سایت) باید robots.txt رو جدی بگیری.
بودجه خزش (Crawl Budget) چیه؟ گوگل برای خزش هر سایتی یه منابع و زمان محدودی در نظر میگیره. یعنی ربات گوگل (Googlebot) در طول روز فقط میتونه تعداد مشخصی از صفحات سایت تو رو بررسی کنه و براش مقدور نیست که ۲۴ ساعته کل سایت تو رو بگرده. به این محدودیت زمانی و منابعی، میگیم «بودجه خزش».
حالا فرض کن سایت وردپرسی تو کلی صفحه بیارزش داره (مثلاً هزاران صفحه تگ، آرشیوهای زمانی قدیمی، نتایج جستجوی داخلی و…). اگه تو با robots.txt جلوی خزش این صفحات رو نگیری، چه اتفاقی میافته؟
ربات گوگل بخش زیادی از بودجه خزش ارزشمندش رو صرف خوندن و بررسی این صفحات بهدردنخور میکنه!
نتیجهش چی میشه؟ بودجه روزانهش تموم میشه و اصلاً به اون مقالات جدید و مهمی که دیروز منتشر کردی نمیرسه! در نتیجه، صفحات جدید و مهم سایتت خیلی دیر ایندکس میشن یا اصلاً دیده نمیشن چون گوگل وقت نکرده بهشون سر بزنه.
نقش robots.txt اینجاست: تو با Disallow کردن هوشمندانه اون صفحات بیارزش، در واقع داری به گوگل کمک میکنی. بهش میگی: «هی گوگل! وقتت رو با این صفحات تلف نکن. برو مستقیم سراغ مقالات اصلی و صفحات محصولات من که برام مهمن.»
به زبان ساده، با بهینهسازی robots.txt، تو داری بودجه خزش رو مستقیماً به سمت صفحات پولساز و مهم سایتت هدایت میکنی. این یعنی خزش سریعتر و ایندکس بهترِ محتوای اصلی تو.
جمعبندی نهایی
پس بیا یه مرور سریع بکنیم:
- فایل txt مثل یه نگهبان یا مدیر ترافیک، رفتار رباتهای موتور جستجو تو سایتت رو کنترل میکنه.
- تو وردپرس، همیشه بهتره یه فایل txt فیزیکی (معمولاً با افزونه سئو) بسازی تا کنترل کامل داشته باشی.
- کار اصلی این فایل جلوگیری از خزش (Crawl) صفحات بیارزشه، نه جلوگیری از ایندکس (Noindex).
- و مهمترین تأثیرش، حفظ و هدایت بودجه خزش (Crawl Budget) به سمت صفحاتیه که واقعاً برات اهمیت دارن.
نادیده گرفتن این فایل کوچیک متنی میتونه به قیمت دیده نشدن مهمترین بخشهای سایتت تموم بشه. پس همین الان برو و وضعیت فایل robots.txt سایتت رو بررسی و بهینهسازی کن!
چگونه فایل robots.txt فعلی سایت وردپرسی خود را پیدا و بررسی کنیم؟
سادهترین روش: بررسی آدرس domain.com/robots.txt
این سریعترین و سادهترین راهه. فرقی نمیکنه سایتت وردپرسه یا هر سیستم دیگهای، این یه استاندارد جهانیه.
- مرورگرت رو باز کن.
- تو نوار آدرس، دامنه کامل سایتت رو وارد کن و در انتهاش عبارت /robots.txt رو اضافه کن.
مثلاً: https://yourdomain.com/robots.txt (تو باید آدرس دامنه خودت رو جایگزین کنی).
چیزی که تو این صفحه میبینی، دقیقاً همون فایلیه که رباتهای گوگل و بقیه موتورهای جستجو هم میبینن. این فایل میتونه یکی از این دو حالت باشه:
- فایل مجازی (Virtual) وردپرس: اگه تو هیچ فایل فیزیکی نساخته باشی، وردپرس بهطور خودکار یه سری دستورات پیشفرض رو اینجا نشون میده (مثل مسدود کردن wp-admin).
- فایل فیزیکی (Physical): فایلی که خودت دستی ساختی یا (که معمولاً اینطوریه) افزونه سئوی تو (مثل رنک مث یا یواست) برات ایجاد کرده.
بررسی وجود فایل فیزیکی در روت هاست (Root Directory)
خب، دیدن فایل تو مرورگر عالیه، اما چطور بفهمیم این فایل «مجازی» وردپرسه یا یه فایل «فیزیکی» واقعی که تو هاست ما آپلود شده؟ (یادت باشه که فایل فیزیکی، فایل مجازی رو لغو میکنه).
برای این کار باید یه سر به «خونه» سایتت بزنی، یعنی هاست.
- وارد پنل مدیریت هاستت شو (مثل cPanel, DirectAdmin یا Plesk).
- به بخش File Manager (مدیریت فایلها) برو.
- وارد پوشه ریشه (Root) سایتت شو. این پوشه معمولاً اسمش public_html هست (مگر اینکه وردپرس رو تو پوشه دیگهای نصب کرده باشی).
- حالا تو این پوشه (کنار پوشههای wp-admin, wp-content و…) دنبال فایلی دقیقاً به اسم txt بگرد.
نتیجه این بررسی:
- اگه فایل txt وجود داشت: تبریک میگم، تو یه فایل فیزیکی داری. این همون فایلیه که رباتها میبینن و تو میتونی مستقیماً ویرایشش کنی (البته پیشنهاد میکنم این کار رو همیشه از طریق افزونه سئوت انجام بدی که کارت راحتتر باشه).
- اگه فایل txt وجود نداشت: یعنی چیزی که تو روش اول (تو مرورگر) دیدی، همون فایل «مجازی» و پیشفرض وردپرس بوده.
استفاده از ابزار تستر robots.txt در گوگل سرچ کنسول
این دیگه روش حرفهای و تخصصی ما سئوکارهاست. این ابزار فقط بهت نشون نمیده چی تو فایلته، بلکه بهت میگه آیا این فایل درست کار میکنه و گوگل دقیقاً چی ازش میفهمه.
گوگل سرچ کنسول (Google Search Console) یه ابزار عالی به اسم robots.txt Tester داره که بهت اجازه میده کارهای حیاتی زیر رو انجام بدی:
- دیدن نسخه ذخیره شده: میتونی ببینی گوگل آخرین بار کی فایل تو رو بررسی کرده و دقیقاً کدوم نسخه از فایل تو رو تو حافظهش داره.
- پیدا کردن خطاها: اگه تو فایل دستور اشتباهی (Syntax Error) نوشته باشی، گوگل بهت هشدار میده.
- تست کردن URL ها (مهمترین بخش): میتونی آدرسهای (URL) مختلف سایتت رو وارد کنی تا ببینی آیا طبق دستورات فعلی تو، اجازه خزش (Allowed) دارن یا مسدود (Disallowed) شدن.
چطور ازش استفاده کنی؟
- وارد حساب گوگل سرچ کنسول خودت شو.
- مطمئن شو که پراپرتی (سایت) درست رو انتخاب کردی.
- به این آدرس برو: https://www.google.com/webmasters/tools/robots-testing-tool
- تو این صفحه، گوگل هم محتوای فایل txt تو رو نشون میده.
- تو کادر پایین صفحه، میتونی یه URL از سایتت (مثلاً آدرس یه مقاله یا یه دسته بندی) رو وارد کنی و دکمه TEST رو بزنی.
این ابزار بهترین راهه تا مطمئن بشی که مثلاً دستوری که برای مسدود کردن (Disallow) یه پوشه نوشتی، اشتباهی جلوی خزش یه صفحه مهم دیگه رو نگرفته باشه. این بررسی برای مدیریت بودجه خزش حیاتیه!
آموزش گام به گام ویرایش و ساخت فایل robots.txt در وردپرس (4 روش اصلی)
روش اول (آسان و پیشنهادی): ویرایش با افزونه سئو (Yoast SEO)
اگه از افزونه محبوب Yoast SEO استفاده میکنی، کارت فوقالعاده راحته. این بهترین روشه چون لازم نیست درگیر هاست و فایل منیجر بشی و خود افزونه حواسش هست که فایل فیزیکی رو درست بسازه و جایگزین اون فایل مجازی پیشفرض وردپرس بکنه.
مراحل گام به گام:
- از منوی پیشخوان وردپرس، به بخش «سئو» (SEO) برو.
- زیرمنوی «ابزارها» (Tools) رو انتخاب کن.
- در صفحهای که باز میشه، روی گزینه «ویرایشگر فایل» (File editor) کلیک کن.
- تو این صفحه، یواست بهت اجازه میده دو تا فایل مهم رو ویرایش کنی: .htaccess و txt.
- اگه تا حالا فایل فیزیکی نساخته باشی، یه دکمه به اسم «ساخت فایلtxt» (Create robots.txt file) میبینی. روش کلیک کن تا یواست فایل فیزیکی رو برات تو روت هاست ایجاد کنه.
- حالا یه کادر متنی میبینی که میتونی دستورات خودت رو توش تایپ کنی (مثلاً User-agent: * و Disallow: /your-folder/).
- بعد از اینکه تغییراتت رو اعمال کردی، دکمه «ذخیره تغییرات درtxt» (Save changes to robots.txt) رو بزن.
به همین سادگی! یواست خودش فایل فیزیکی رو مدیریت میکنه.
روش دوم (متداول): ویرایش با افزونه سئو (Rank Math)
روند کار با افزونه قدرتمند Rank Math هم دقیقاً به همین سادگیه و این روش هم دقیقاً مثل یواست، عالی و پیشنهادیه.
مراحل گام به گام:
- از منوی پیشخوان وردپرس، به بخش «رنک مث» (Rank Math) برو.
- زیرمنوی «تنظیمات عمومی» (General Settings) رو انتخاب کن.
- در این صفحه، از بین تبهای بالا، روی تب «ویرایشtxt» (Edit robots.txt) کلیک کن.
- تو این صفحه یه ویرایشگر متن کامل میبینی. اگه قبلاً فایلی نساخته باشی، رنک مث یه سری دستورات پیشفرض (که خیلی هم بهینه و خوب هستن) رو اینجا برات قرار داده.
- تو میتونی دستورات خودت رو به این فایل اضافه کنی یا دستورات موجود رو ویرایش کنی.
- وقتی کارت تموم شد، دکمه «ذخیره تغییرات» (Save Changes) رو بزن.
رنک مث هم مثل یواست، بهمحض اینکه تو این بخش چیزی ذخیره کنی، یه فایل فیزیکی robots.txt برات تو روت هاست ایجاد میکنه. مزیت بزرگ این دو روش اینه که خیالت راحته فایل دقیقاً تو جای درست ساخته میشه و لازم نیست نگران دسترسی به هاست باشی.
روش سوم (دسترسی مستقیم): ویرایش از طریق فایل منیجر هاست (cPanel یا DirectAdmin)
این روش یه کم فنیتره اما بهت کنترل کامل میده. اگه به هر دلیلی از افزونه سئو استفاده نمیکنی (که بعید میدونم!) یا افزونهت این قابلیت رو نداره، باید از این روش بری.
مراحل گام به گام:
- وارد پنل مدیریت هاستت شو (معمولاً سیپنل یا دایرکت ادمین).
- دنبال گزینهای به اسم «File Manager» (مدیریت فایلها) بگرد و روش کلیک کن.
- وارد پوشه ریشه (Root) سایتت شو. این پوشه معمولاً اسمش public_html هست (مگر اینکه وردپرس رو تو پوشه دیگهای نصب کرده باشی).
- حالا تو این پوشه (کنار پوشههای wp-admin, wp-content و…) دنبال فایلی دقیقاً به اسم txt بگرد.
- اگر فایل وجود داشت: روش راستکلیک کن و گزینه «Edit» یا «Code Edit» رو انتخاب کن. دستوراتت رو بنویس و فایل رو ذخیره (Save) کن.
- اگر فایل وجود نداشت: از منوی بالای فایل منیجر، روی «New File» یا «+ File» کلیک کن. اسم فایل رو دقیقاً txt بذار (حواست باشه حروف کوچیک و بزرگ مهمه و هیچ غلط املایی نباید داشته باشه).
- حالا که فایل خالی ساخته شد، روش راستکلیک کن و «Edit» رو بزن. دستوراتت رو داخلش بنویس و ذخیره کن.
یه خواهش! موقع کار با فایل منیجر خیلی مراقب باش. اگه فایلی رو اشتباهی پاک کنی یا اسم فایل robots.txt رو اشتباه بنویسی (مثلاً robot.txt)، کلاً کار نمیکنه و ممکنه به سایتت آسیب بزنی.
روش چهارم (برای حرفهایها): اتصال و ویرایش از طریق FTP
این روش دیگه واقعاً برای کاربرای حرفهای و توسعهدهندههاست که با FTP راحتترن. FTP مخفف File Transfer Protocol هست و ابزارهایی مثل FileZilla بهت اجازه میدن مستقیم به فایلهای هاستت وصل بشی.
مراحل گام به گام:
- به یه نرمافزار کلاینت FTP مثل FileZilla نیاز داری.
- با استفاده از اطلاعات FTP هاستت (نام میزبان، نام کاربری، رمز عبور و پورت) به سرور وصل شو.
- بعد از اتصال، تو ستون سمت راست (Remote site)، به پوشه ریشه سایتت برو (همون public_html یا مشابهش).
- فایل txt رو پیدا کن (اگه وجود نداره، میتونی یه فایل متنی خالی رو کامپیوترت بسازی، اسمش رو robots.txt بذاری و تو این پوشه آپلودش کنی).
- روی فایل txt راستکلیک کن و گزینه «View/Edit» (مشاهده/ویرایش) رو بزن.
- فایل تو ویرایشگر متن پیشفرض کامپیوترت باز میشه. تغییراتت رو اعمال کن و فایل رو ذخیره کن (Ctrl+S).
- وقتی به FileZilla برگردی، ازت میپرسه که «آیا میخواهید این فایل تغییریافته روی سرور آپلود شود؟». تو باید «Yes» رو بزنی تا فایل جدید جایگزین فایل قدیمی روی هاست بشه.
جمعبندی نهایی و پیشنهاد من
دیدی چقدر راههای مختلفی بود؟
پیشنهاد قطعی من چیه؟ همیشه از همون روش اول یا دوم (یعنی افزونه سئو، چه Yoast و چه Rank Math) استفاده کن.
چرا؟ چون هم سادهست، هم امنه و هم مطمئنی که فایل فیزیکی رو درست مدیریت میکنه و با تنظیمات دیگه وردپرس تداخلی ایجاد نمیکنه. روشهای سوم و چهارم خوبن، اما ریسک خطای انسانی (مثل پاک کردن یه فایل اشتباهی یا آپلود تو پوشه نادرست) توشون بیشتره.
حالا که یاد گرفتی فایل رو بسازی و ویرایش کنی، تو قدم بعدی باید بدونیم دقیقاً چی باید توش بنویسیم تا بهترین نتیجه رو برای سئوی وردپرس بگیریم.
بهینهسازی robots.txt وردپرس: بهترین دستورات (Directives) کدامند؟
آشنایی با دستورات کلیدی: User-agent, Disallow, Allow
فایل robots.txt با چند تا دستور ساده اما قدرتمند کار میکنه. بیا اول این سه تا دستور اصلی رو بشناسیم:
۱. User-agent (عامل کاربر): این دستور مشخص میکنه که داری با کدوم ربات حرف میزنی. مثل اینه که نامه رو با اسم شخص شروع کنی.
- User-agent: * (علامت ستاره): این یعنی «ای همه رباتها…». دستوری که بعد از این بیاد، برای همه رباتها (گوگل، بینگ، یاهو و…) اعمال میشه.
- User-agent: Googlebot: این یعنی «ای ربات گوگل…». دستورات بعد از این، فقط برای گوگل اعمال میشه.
۲. Disallow (مسدود کردن): این دستور اصلیترین ابزار ماست و به ربات میگه: «لطفاً به این آدرس یا پوشه وارد نشو و اون رو نخز (Crawl نکن)».
- مثال: Disallow: /private-folder/ یعنی پوشهی private-folder رو نخز.
۳. Allow (اجازه دادن): این دستور یه کم پیشرفتهتره و بهعنوان یه «استثنا» عمل میکنه. معمولاً زمانی استفاده میشه که تو یه پوشه بزرگ رو Disallow کردی، اما میخوای به یه فایل خاص داخل همون پوشه اجازه دسترسی بدی.
- مثال: فرض کن Disallow: /wp-content/ رو زدی (که کار اشتباهیه!)، بعد میتونی بگی Allow: /wp-content/uploads/ تا حداقل بتونه عکسها رو ببینه. (البته جلوتر میگم چرا این کار اشتباهه).
افزودن نقشه سایت (Sitemap) به robots.txt (یک قدم ضروری)
این یه دستور (Directive) نیست، بلکه یه «راهنمایی» خیلی مهمه.
تو باید آدرس کامل نقشه سایت (Sitemap) خودت رو تو فایل robots.txt قرار بدی. این کار مثل اینه که به رباتهای موتور جستجو که برای اولین بار به سایتت میان، یه نقشه کامل بدی و بگی: «سلام! خوش اومدی. این هم لیست تمام صفحات مهم من.»
این کار به گوگل و بقیه رباتها کمک میکنه که خیلی سریعتر ساختار سایتت رو بفهمن و صفحات جدیدت رو کشف کنن.
نحوه افزودن نقشه سایت: خیلی ساده، فقط این خط رو (معمولاً در انتها یا ابتدای فایل) اضافه کن:
Sitemap: https://yourdomain.com/sitemap_index.xml
(یادت باشه yourdomain.com رو با دامنه خودت و آدرس نقشه سایتت رو (که معمولاً افزونه سئو برات میسازه) جایگزین کنی).
قالب پیشنهادی و بهینه robots.txt برای یک سایت وردپرسی استاندارد
خب، میرسیم به اصل مطلب. یه فایل robots.txt خوب برای وردپرس، فایلیه که جلوی خزش فایلهای بیاهمیت و تکراری رو میگیره اما به گوگل اجازه میده به فایلهای حیاتی (مثل CSS و JS) برای درک صفحه دسترسی داشته باشه.
قالب بهینه پیشنهادی من:
User-agent: *
# مسدود کردن نتایج جستجوی داخلی وردپرس (چون محتوای تکراری ایجاد میکنه)
Disallow: /?s=
Disallow: /search/
# مسدود کردن پوشههایی که حاوی فایلهای اجرایی و حساس پلاگینها هستن
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
# مسدود کردن فایلهای حساس (اختیاری اما خوبه)
Disallow: /readme.html
Disallow: /license.txt
# مسدود کردن فیدهای غیرضروری (فید اصلی معمولاً کافیه)
Disallow: /comments/feed/
Disallow: /trackback/
# اگه از لینکهای ریدایرکت(مثل افزونهPretty Links یاGo) استفاده میکنی
Disallow: /go/
Disallow: /refer/
# اجازه دادن به فایل حیاتیAJAX برای رندر بهتر صفحات
Allow: /wp-admin/admin-ajax.php
# --- آدرس نقشه سایت---
# (آدرس نقشه سایت خودت رو جایگزین کن)
Sitemap: https://yourdomain.com/sitemap_index.xml
نکته مهم: این یه قالب استاندارده. اگه تو پوشه خاص دیگهای داری که نمیخوای خزیده بشه (مثلاً پوشه فایلهای دانلودی اعضای ویژه)، باید خودت دستی به این لیست اضافهش کنی.
مدیریت دسترسی رباتهای مختلف (Googlebot, Bingbot, رباتهای AI)
گاهی وقتا تو میخوای با رباتها رفتار متفاوتی داشته باشی. مثلاً شاید نخوای رباتهای هوش مصنوعی (AI) مثل ChatGPT از محتوای تو برای آموزش استفاده کنن، اما میخوای گوگل به همهجا دسترسی داشته باشه.
تو میتونی با استفاده از User-agent های مختلف، این کار رو بکنی:
مثال ۱: مسدود کردن ربات ChatGPT:
User-agent: GPTBotDisallow: /
(دستور Disallow: / یعنی «کل سایت رو مسدود کن»).
مثال ۲: مسدود کردن ربات هوش مصنوعی گوگل (Google-Extended):
User-agent: Google-ExtendedDisallow: /
مثال ۳: رفتار متفاوت با گوگل و بینگ (کمتر رایجه):
User-agent: BingbotDisallow: /expensive-folder/ # این پوشه برای بینگ مسدوده User-agent: GooglebotAllow: /expensive-folder/ # اما برای گوگل آزاده
توصیه من: در ۹۹٪ مواقع، همون User-agent: * (برای همه رباتها) کافیه، مگه اینکه دلیل خیلی خاصی برای مسدود کردن یه ربات خاص (مثل رباتهای AI) داشته باشی.
چرا نباید پوشههای wp-admin و wp-includes را بلاک کنیم؟ (یک باور غلط رایج)
این یکی از مهمترین نکاتیه که باید بدونی و خیلی از قالبهای قدیمی robots.txt این اشتباه رو میکنن.
باور غلط قدیمی: «باید پوشههای /wp-admin/ و /wp-includes/ رو کامل Disallow کنیم تا هم امنیت بالا بره و هم بودجه خزش هدر نره.»
چرا این باور غلطه؟ بذار رُک و راست بهت بگم: گوگل دیگه مثل ۱۰ سال پیش فقط متن HTML رو نمیخونه. گوگل سایت تو رو رندر (Render) میکنه؛ یعنی دقیقاً مثل یه کاربر واقعی با مرورگر کروم، صفحه رو باز میکنه تا ببینه چیدمان صفحه، فونتها، رنگها و المانهای متحرک چطور به نظر میرسن (مخصوصاً برای Mobile-First Indexing).
خب، مشکل کجاست؟ فایلهای حیاتی که برای «رندر» شدن سایتت لازمن (یعنی فایلهای CSS و JavaScript) دقیقاً کجا قرار دارن؟ تو پوشههای wp-includes و wp-content!
[Image showing Googlebot rendering a page vs. just reading HTML]
اگه تو جلوی دسترسی گوگل به این پوشهها رو بگیری، گوگل نمیتونه CSS و JS سایتت رو بخونه. در نتیجه، سایتی که گوگل میبینه یه صفحه به هم ریخته، بدون استایل و احتمالاً شکسته (Broken) است. این سیگنال وحشتناکیه و گوگل فکر میکنه سایت تو برای کاربر موبایل بهینه نیست (Not Mobile-Friendly) و این میتونه رتبهت رو نابود کنه.
راهحل چیه؟ ما این پوشهها رو بهطور کامل Disallow نمیکنیم. به همین دلیله که تو قالب پیشنهادی من، دستوری برای مسدود کردن کامل /wp-admin/ یا /wp-includes/ ندیدی. ما فقط به فایل admin-ajax.php که برای عملکردهای حیاتی لازمه، صراحتاً Allow میدیم تا مطمئن بشیم گوگل بهش دسترسی داره.
نحوه مسدود کردن (Disallow) یک صفحه، پوشه یا فایل خاص
اگه خواستی به قالب بالا چیزی اضافه کنی، اینجا چند تا مثال کاربردی برات آوردم:
۱. مسدود کردن یک پوشه کامل: (تمام محتوای داخل اون پوشه مسدود میشه)
Disallow: /my-private-files/
(حواست به / (اسلش) در انتهای آدرس پوشه باشه).
۲. مسدود کردن یک صفحه خاص: (مثلاً یه صفحه تشکر از خرید که نمیخوای تو نتایج باشه)
Disallow: /thank-you-page.htmlDisallow: /thank-you/
یادآوری مهم: Disallow کردن فقط جلوی خزش (Crawl) رو میگیره. اگه اون صفحه از قبل ایندکس شده، این دستور جلوی ایندکس شدنش رو نمیگیره. برای حذف از نتایج گوگل باید از تگ noindex استفاده کنی.
۳. مسدود کردن یک نوع فایل خاص (مثلاً همه PDF ها): این یه کم حرفهایتره و از وایلدکارتها (Wildcards) استفاده میکنه:
# جلوی خزش همه فایلهایی که به .pdf ختم میشن رو بگیرDisallow: /*.pdf$
(علامت * یعنی «هر چیزی» و علامت $ یعنی «در انتهای آدرس»).
جمعبندی نهایی
فایل robots.txt تو یه ابزار ساده ولی فوقالعاده قدرتمند برای مدیریت بودجه خزشه. با استفاده از قالبی که بهت دادم و درک این موضوع که «نباید جلوی رندر شدن صفحه رو بگیریم»، میتونی مطمئن باشی که ربات گوگل وقتش رو صرف مهمترین صفحات سایتت میکنه.
همین الان برو فایل robots.txt سایتت رو چک کن و مطمئن شو که این بهینهسازیها روش اعمال شده باشه!
اشتباهات رایج و خطرناک در robots.txt که سئوی سایت شما را نابود میکند!
خطای فاجعهبار Disallow: / (مسدود کردن کل سایت)
این ترسناکترین، فاجعهبارترین و متأسفانه یه اشتباه رایجه که گاهی اتفاق میفته.
بذار برات کدش رو بشکافم: User-agent: * (یعنی: ای همه رباتهای دنیا) Disallow: / (یعنی: اجازه ندارید هیچ چیزی رو از ریشه (root) سایت من بخزید)
علامت / (اسلش) به تنهایی، به معنی «کل سایت» هست.
نتیجه چیه؟ تو با این دستور داری خیلی محترمانه به گوگل، بینگ و بقیه میگی: «لطفاً کل سایت من رو نادیده بگیرید و از نتایج جستجو حذفش کنید.»
این دستور مثل دکمه «خودتخریبی» (Self-Destruct) برای سئوی سایته. رباتها دیگه سایتت رو نمیخزن (Crawl نمیکنن) و در عرض چند روز تا چند هفته، میبینی که تمام صفحاتت دارن از نتایج گوگل محو میشن.
چرا این اتفاق میفته؟ گاهی وقتا یه توسعهدهنده موقعی که سایت در حال بازطراحی بوده، این کد رو میذاره تا گوگل نسخه ناقص رو نبینه و یادش میره بعد از راهاندازی سایت، این خط رو پاک کنه! یا گاهی فقط یه اشتباه تایپی سادهست.
درس اول: هرگز، هرگز، هرگز از Disallow: / استفاده نکن، مگه اینکه آگاهانه بخوای سایتت رو از اینترنت محو کنی.
بلاک کردن فایلهای CSS و JavaScript (اختلال در رندرینگ گوگل)
این اشتباهی بود که تو بخش قبلی هم بهش اشاره کردم، اما اونقدر مهمه که باید اینجا دوباره و با صدای بلندتر تکرارش کنم.
باور غلط قدیمی: «بلاک کردن پوشههای wp-content/plugins/ و wp-content/themes/ و wp-includes/ کار خوبیه چون جلوی هدر رفتن بودجه خزش رو میگیره.»
واقعیت امروز: این کار یه «خودزنی» بزرگ برای سئوی مدرنه.
یادت باشه: گوگل دیگه فقط متن HTML رو نمیخونه؛ گوگل سایت تو رو رندر (Render) میکنه. یعنی مثل یه کاربر واقعی با مرورگر کروم، صفحه رو باز میکنه تا ببینه چیدمان، فونتها، رنگها و دکمهها چطور به نظر میرسن (مخصوصاً برای Mobile-First Indexing).
اگه این فایلها رو بلاک کنی چی میشه؟ فایلهای CSS (که استایل و ظاهر سایتت رو میسازن) و فایلهای JavaScript (که عملکردهای سایت رو اجرا میکنن) دقیقاً تو همین پوشههایی هستن که بلاک کردی.
در نتیجه، گوگل وقتی میخواد سایتت رو رندر کنه، یه صفحه به هم ریخته، بدون استایل و احتمالاً شکسته (Broken) میبینه؛ یه صفحه پر از متن خالی، بدون هیچ ظاهری.
[Image comparing a fully rendered page vs. a page with blocked CSS/JS]
فاجعه اینجاست: گوگل فکر میکنه سایت تو برای کاربر موبایل افتضاحه (Not Mobile-Friendly)، تجربه کاربری (UX) ضعیفی داره و در نتیجه، رتبهت رو بهشدت کاهش میده.
درس دوم: هرگز جلوی دسترسی گوگل به فایلهای CSS و JS رو نگیر. این فایلها برای رندر شدن و درک کامل صفحه توسط گوگل حیاتی هستن.
استفاده نادرست از حروف بزرگ و کوچک (Case-Sensitivity)
این یه اشتباه فنی اما خیلی رایجه. حواست باشه: دستورات فایل robots.txt، مخصوصاً بخش «مسیرها» (Paths)، به حروف بزرگ و کوچک حساس هستن (Case-Sensitive).
یعنی چی؟ یعنی از نظر رباتهای گوگل، این سه تا آدرس با هم فرق دارن:
- /my-page/
- /My-Page/
- /my-PAGE/
اشتباه کجاست؟ فرض کن تو یه پوشه تو سایتت داری به اسم Files (با F بزرگ). حالا تو فایل robots.txt مینویسی: Disallow: /files/ (با f کوچیک)
نتیجه؟ این دستور کار نمیکنه! ربات گوگل به پوشه /Files/ نگاه میکنه، دستور تو رو میبینه که برای /files/ هست و چون این دو تا دقیقاً یکی نیستن، ربات با خیال راحت وارد پوشه /Files/ میشه و محتواش رو میخزه.
درس سوم: همیشه موقع نوشتن دستورات Disallow یا Allow، مطمئن شو که مسیرها رو دقیقاً با همون حروف بزرگ یا کوچکی که تو URL واقعی سایتت وجود داره، وارد میکنی.
مسدود کردن صفحاتی که قبلاً Noindex شدهاند
این یه اشتباه منطقی و خیلی ظریفه که سئوکارای تازهکار توش میفتن. بیا اول دو تا ابزار رو مرور کنیم:
۱. تگ noindex: این تگ رو تو <head> یه صفحه میذاری. به گوگل میگه: «لطفاً این صفحه رو بخز (Crawl کن)، اما تو نتایج جستجوت نشون نده (ایندکس نکن).» ۲. دستور Disallow: این دستور رو تو robots.txt میذاری. به گوگل میگه: «اصلاً به این صفحه نزدیک نشو و اون رو نخز (Crawl نکن).»
اشتباه کجاست؟ فرض کن تو یه صفحه داری که تو نتایج گوگل ایندکس شده و میخوای حذفش کنی. کار درست اینه که بری بهش تگ noindex اضافه کنی.
اما اگه همزمان با اضافه کردن noindex، بیای و همون صفحه رو تو robots.txt هم Disallow کنی، یه تداخل فاجعهبار ایجاد کردی!
چرا؟ چون گوگل برای اینکه تگ noindex تو رو ببینه، باید بتونه اون صفحه رو بخزه. وقتی تو اون صفحه رو Disallow میکنی، به گوگل دستور میدی که «اون صفحه رو نخز».
نتیجه: گوگل هیچوقت اون صفحه رو نمیخزه، در نتیجه هیچوقت تگ noindex جدید تو رو نمیبینه و اون صفحه برای همیشه تو نتایج ایندکس گوگل (حتی بهصورت قدیمی) باقی میمونه!
[Image showing a flowchart of this conflict: Disallow -> Google can’t crawl -> Google can’t see Noindex -> Page stays indexed]
درس چهارم: اگه میخوای صفحهای رو با noindex از نتایج حذف کنی، باید اجازه خزش (Crawl) اون صفحه رو تو robots.txt بدی. اول مطمئن شو که صفحه از نتایج حذف شده (میتونی تو سرچ کنسول یا با دستور site: چکش کنی)، بعد اگه خواستی میتونی برای صرفهجویی تو بودجه خزش، اون رو Disallow کنی.
جمعبندی نهایی
فایل robots.txt شوخیبردار نیست. یه اسلش (/) کم یا زیاد، یا یه حرف بزرگ بهجای کوچیک، میتونه کل استراتژی سئوی تو رو مختل کنه.
توصیه همیشگی من: قبل از اینکه هر تغییری رو تو فایل robots.txt ذخیره کنی، حتماً، حتماً و حتماً اون رو تو ابزار «robots.txt Tester» گوگل سرچ کنسول تست کن. آدرسهای مهم سایتت (صفحه اصلی، مقالهها، دستهبندیها) و آدرسهایی که میخوای مسدود کنی رو توش وارد کن تا مطمئن بشی دقیقاً همونطور که انتظار داری کار میکنه.
تست و اعتبارسنجی فایل robots.txt پس از اعمال تغییرات
اطمینان از اعمال تغییرات (پاک کردن کش)
این یه مشکل خیلی رایج و کلافهکنندهست. تو فایل robots.txt رو توی افزونه سئوت (مثل رنک مث یا یواست) ویرایش و ذخیره میکنی، بعد بلافاصله آدرس yourdomain.com/robots.txt رو تو مرورگرت باز میکنی و… هیچی! هنوز همون فایل قدیمی رو میبینی.
چرا؟ جواب تو یه کلمه خلاصه میشه: کَش (Cache).
سایت وردپرسی تو (و حتی مرورگر خودت) از لایههای مختلف کش استفاده میکنه تا سرعت لود سایت بالا بره. فایل robots.txt هم چون یه فایل متنی سادهست، معمولاً کش میشه.
برای اینکه مطمئن بشی فایل جدیدت دیده میشه، باید این قدمها رو به ترتیب طی کنی:
۱. کش مرورگر (Hard Refresh): اولین و سادهترین کار. تو همون صفحهای که فایل robots.txt رو باز کردی، به جای رفرش معمولی (F5)، یه «رفرش قوی» (Hard Refresh) انجام بده.
- تو ویندوز (کروم/فایرفاکس): Ctrl + Shift + R
- تو مک (کروم/فایرفاکس): Cmd + Shift + R
- روش جایگزین: سایت رو تو یه پنجره «ناشناس» (Incognito) باز کن که هیچ کشی از قبل نداره.
۲. کش افزونه وردپرس (خیلی مهمه): اگه مرحله ۱ جواب نداد، مقصر اصلی احتمالاً افزونه کش توئه (مثل WP Rocket, LiteSpeed Cache, WP Super Cache و…).
- باید بری به تنظیمات افزونه کشت و دکمه «پاک کردن کل کش» (Purge All Cache / Clear All Cache) رو بزنی. این کار کل حافظه پنهان سایتت رو خالی میکنه و وردپرس رو مجبور میکنه فایل جدید txt رو نشون بده.
۳. کش CDN یا سرور: اگه از CDN مثل «کلادفلر» (Cloudflare) یا کشهای سمت سرور (مثل Varnish) استفاده میکنی، ممکنه لازم باشه یه سر هم به پنل اونها بزنی و کش رو از اونجا هم پاک کنی. (تو کلادفلر گزینهای به اسم «Purge Everything» وجود داره).
نشونه موفقیت: وقتی آدرس yourdomain.com/robots.txt رو تو مرورگرت (ترجیحاً Incognito) رفرش میکنی و میتونی دستورات جدید خودت رو ببینی.
تست نهایی با Google Search Console
خب، حالا که تو میتونی فایل جدید رو ببینی، باید مطمئن بشیم که گوگل هم میبینه و مهمتر از اون، دستورات تو رو درست درک میکنه.
اینجا دیگه «ابزار تستر robots.txt» در گوگل سرچ کنسول، حرف اول و آخر رو میزنه. این ابزار بهترین دوست تو برای جلوگیری از فاجعهست!
مراحل تست نهایی:
۱. ورود به ابزار: وارد حساب گوگل سرچ کنسولت شو و به ابزار robots.txt Tester برو. (میتونی مستقیم تو گوگل سرچ کنی robots.txt Tester و واردش بشی).
۲. چک کردن نسخه گوگل: به محض ورود، این ابزار بهت نشون میده که آخرین نسخهای که گوگل از فایل robots.txt تو ذخیره (Fetch) کرده چیه و مربوط به چه تاریخیه. * سوال: آیا کدی که اینجا میبینی، همون کد جدید و بهینهشدهایه که تو ذخیره کردی؟
۳. درخواست آپدیت (قدم حیاتی): * اگه گوگل هنوز نسخه قدیمی رو داشت: اصلاً نگران نباش. کنار ویرایشگر، معمولاً دکمهای به اسم «Submit» (ارسال) وجود داره. * روی اون کلیک کن. یه پاپآپ باز میشه که ازت میخواد دوباره تایید کنی. * با این کار تو مستقیماً به گوگل سیگنال میدی: «هی گوگل! من فایل robots.txt رو عوض کردم. لطفاً همین الان بیا و نسخه جدیدش رو بخون.» این کار معمولاً روند آپدیت شدن رو خیلی سریعتر میکنه.
۴. تست منطق دستورات (مهمترین بخش): حالا که فایل جدید تو ابزار لود شده (یا حتی میتونی خودت کد جدیدت رو تو ویرایشگر ابزار پیست کنی)، وقت تست نهایی منطقه: * تست صفحات مجاز: آدرس (URL) یکی از مقالههای مهم یا صفحه اصلی سایتت رو تو کادر تست پایین صفحه وارد کن. نتیجه باید سبز و Allowed (مجاز) باشه. * تست صفحات مسدود شده: آدرس صفحهای که میخواستی مسدود کنی رو وارد کن (مثلاً: /my-private-folder/). نتیجه باید قرمز و Disallowed (مسدود) باشه. * چک کردن خطاهای سینتکس: ببین آیا خود ابزار هیچ خط (Error) یا اخطار (Warning) زرد رنگی بابت دستورات اشتباه بهت نشون میده یا نه.
تا وقتی که تو این ابزار، نتیجه تست URL های مهمت سبز (Allowed) و نتیجه تست URL های مسدودیت قرمز (Disallowed) نشده، کارت با فایل robots.txt تموم نشده!
سوالات متداول درباره robots.txt در وردپرس
تفاوت robots.txt و فایل .htaccess چیست؟
این یکی از مهمترین تفاوتهای فنیه که باید بدونی. این دو فایل هر دو تو ریشه (root) هاستت زندگی میکنن، اما کارشون هیچ ربطی به هم نداره.
۱. فایل robots.txt (نگهبان مودب دمِ در):
- کارش چیه؟ مدیریت رباتهای موتور جستجو (مثل Googlebot).
- چطور کار میکنه؟ با «درخواست کردن». این فایل به رباتها میگه: «لطفاً به این بخشها نرو.»
- قدرتش چقدره؟ یه «درخواست» محترمانهست. رباتهای معتبر (مثل گوگل و بینگ) بهش احترام میذارن، اما یه ربات مخرب یا اسپم میتونه کاملاً نادیدهش بگیره.
- مثال: Disallow: /private/ (لطفاً این پوشه رو نخز).
۲. فایل .htaccess (قانونگذار و مأمور اجرای سرور):
- کارش چیه؟ مدیریت سرور (مخصوصاً سرورهای آپاچی که اکثر هاستهای وردپرس ازش استفاده میکنن).
- چطور کار میکنه؟ با «دستور دادن» و «اجرا کردن». این فایل قوانین سطح سرور رو تعیین میکنه.
- قدرتش چقدره؟ مطلق! برخلاف txt، این فایل «درخواست» نمیکنه، بلکه «مجبور» میکنه. میتونه دسترسی یه IP رو کاملاً مسدود کنه، تمام ترافیک رو از http به https ریدایرکت ۳۰۱ کنه، یا ساختار پیوندهای یکتای وردپرس رو مدیریت کنه.
- مثال: Redirect 301 /old-page.html /new-page.html (کاربر و ربات رو مجبور میکنه به صفحه جدید برن).
تشبیه ساده:
- txt مثل یه تابلوی «لطفاً وارد نشوید» روی یه درِ بازه.
- .htaccess مثل یه درِ فولادی قفلشدهست که فقط با کلید یا مجوز خاص باز میشه.
آیا میتوانم از robots.txt برای حذف یک صفحه از نتایج گوگل استفاده کنم؟
جواب کوتاه و قاطع: نه! این یکی از رایجترین و بزرگترین باورهای غلط در سئو هست.
لطفاً این دو مفهوم رو برای همیشه از هم جدا کن:
- Crawl (خزیدن): کاری که txt مدیریتش میکنه. یعنی «اجازه ورود و بررسی کردن».
- Index (ایندکس شدن): کاری که تگ noindex مدیریتش میکنه. یعنی «اجازه نمایش در نتایج جستجو».
وقتی تو یه صفحه رو Disallow میکنی (با robots.txt): تو فقط داری به گوگل میگی: «زحمت نکش این صفحه رو بخونی.»
مشکل کجاست؟ اگه اون صفحه از قبل تو نتایج گوگل ایندکس شده باشه (یا حتی اگه ایندکس نشده باشه ولی از جاهای دیگه بهش لینک داده شده باشه)، گوگل میدونه که این صفحه وجود داره.
چون تو بهش اجازه خزش نمیدی، گوگل نمیتونه محتوای صفحه رو ببینه، اما ممکنه خودِ URL رو تو نتایج نگه داره و زیرش بنویسه: «به دلیل فایل robots.txt این سایت، توضیحی برای این نتیجه در دسترس نیست.» (A description for this result is not available because of this site’s robots.txt.)
راهحل درست برای حذف صفحه از نتایج گوگل چیه؟ تو باید از تگ meta robots با مقدار noindex تو بخش <head> اون صفحه استفاده کنی. (افزونههای سئو این گزینه رو تو تنظیمات هر برگه/نوشته دارن).
نکته طلایی: وقتی میخوای صفحهای رو noindex کنی، نباید اون صفحه رو تو robots.txt مسدود (Disallow) کنی. چرا؟ چون گوگل باید بتونه صفحه رو بخزه تا بتونه تگ noindex تو رو ببینه و بعدش اون صفحه رو از نتایج حذف کنه.
تغییرات در robots.txt چقدر طول میکشد تا توسط گوگل شناسایی شود؟
این تغییرات لحظهای و آنی نیستن.
گوگل فایل robots.txt تو رو «کَش» (Cache) میکنه. یعنی یه نسخه ازش رو تو حافظهش نگه میداره و هر بار که به سایتت سر میزنه، دوباره اون فایل رو دانلود نمیکنه (چون کار بیهودهایه و بودجه خزش رو هدر میده).
یه قانون کلی: گوگل معمولاً هر ۲۴ ساعت یکبار (یا گاهی بیشتر، بسته به اعتبار و بزرگی سایتت) فایل robots.txt رو دوباره چک میکنه تا ببینه آپدیت شده یا نه.
پس اگه تو تغییری ایجاد کردی، ممکنه تا ۲۴ ساعت طول بکشه تا گوگل متوجه اون تغییر بشه.
چطور این روند رو سریعتر کنیم؟ (همونطور که قبلاً گفتیم) بهترین، سریعترین و مطمئنترین راه اینه که خودت دست به کار بشی:
- برو به ابزار txt Tester تو گوگل سرچ کنسول.
- مطمئن شو که کد جدیدت رو میبینی (اگه نمیدیدی، یعنی کش داری و باید پاکش کنی).
- از دکمه «Submit» (ارسال) استفاده کن.
وقتی تو از این دکمه استفاده میکنی، داری مستقیماً به گوگل میگی: «هی گوگل! من فایل رو آپدیت کردم. لطفاً کش قبلی رو دور بریز و همین الان بیا نسخه جدید رو بخون.» این کار معمولاً روند شناسایی رو از ۲۴ ساعت به چند دقیقه کاهش میده.
جمعبندی نهایی راهنما
خب، دمت گرم که تا انتهای این راهنمای جامع با من همراه بودی. حالا تو دقیقاً میدونی که فایل robots.txt چیه و چطور از یه «نگهبان دمِ در» ساده، به یه «مدیر ترافیک هوشمند» برای رباتهای گوگل تبدیلش کنی.
یادت نره، اصل ماجرا اینه:
- مدیریت بودجه خزش: تو داری به گوگل کمک میکنی وقتش رو روی صفحات مهم تو بذاره، نه فایلهای سیستمی و نتایج جستجوی داخلی.
- خزش ≠ ایندکس: این فایل جلوی خزش (Crawl) رو میگیره، نه ایندکس (Index). برای حذف صفحه از نتایج، فقط و فقط از تگ noindex استفاده کن.
- تست، تست، تست: هر تغییری که دادی، قبل از اینکه خیالت راحت بشه، برو تو ابزار تستر سرچ کنسول و مطمئن شو که همهچیز (مخصوصاً صفحات اصلیت) Allowed هستن.
فایل robots.txt شاید کوچیک باشه، اما تأثیرش تو سئوی فنی سایتت غولآساست. مدیریت درست این فایل یکی از پایههای اصلی سئوی تکنیکال موفقه. همین الان برو فایل سایتت رو طبق این آموزش چک کن و اگه سوالی داشتی، من و تیم «وزیر سئو» آمادهایم کمکت کنیم.