مقالات

راهنمای جامع ویرایش و بهینه‌سازی فایل robots.txt در وردپرس (آموزش گام به گام)

راهنمای جامع ویرایش و بهینه‌سازی فایل robots.txt در وردپرس (آموزش گام به گام)

سلام! من سارا بحرانی‌ام. خیلی‌ها وقتی سایت وردپرسی‌شون رو راه می‌ندازن، فکر می‌کنن همین که پیکربندی اولیه و افزونه های حیاتی سئو رو انجام دادن و چند تا مقاله منتشر کردن، کار تمومه. اما این تازه اول راهه! تو باید به گوگل بگی دقیقاً «کجا» رو بگرده و «کجا» رو نادیده بگیره.

اگه این کار رو درست انجام ندی، گوگل بودجه خزش (Crawl Budget) ارزشمندش رو صرف صفحات بی‌اهمیت سایتت (مثل نتایج جستجوی داخلی یا پوشه پلاگین‌ها) می‌کنه و اصلاً به مقاله‌های جدید و مهمت نمی‌رسه. یا بدتر از اون، ممکنه ندونسته با یه دستور اشتباه، جلوی دسترسی گوگل به کل سایتت رو بگیری!

ابزار قدرتمند تو برای مدیریت این ترافیک ربات‌ها، یه فایل متنی ساده اما فوق‌العاده حیاتی به اسم robots.txt هست. تو این راهنمای کامل، می‌خوام بهت یاد بدم این فایل دقیقاً چیه، چطور پیداش کنی، چطور بهینه‌سازیش کنی و از چه اشتباهات فاجعه‌باری باید فرار کنی.

جدول کاربردی: چک‌لیست بایدها و نبایدهای robots.txt

قبل از اینکه عمیق بشیم، این جدول رو ببین. این چک‌لیست، خلاصه‌ی تمام کارهاییه که باید (و نباید) با فایل robots.txt سایتت انجام بدی:

ردیف بایدها (Do’s) نبایدها (Don’ts)
۱ نقشه سایت (Sitemap) رو اضافه کن: حتماً آدرس نقشه سایتت رو تو فایل بذار تا گوگل سریع‌تر صفحاتت رو پیدا کنه. از Disallow: / استفاده نکن: این دستور فاجعه‌بار کل سایتت رو از دسترس گوگل خارج می‌کنه.
۲ نتایج جستجوی داخلی رو مسدود کن: دستور Disallow: /?s= جلوی هدر رفتن بودجه خزش روی صفحات بی‌ارزش رو می‌گیره. فایل‌های CSS و JS رو بلاک نکن: گوگل برای «رندر» (دیدن) درست سایتت به این فایل‌ها نیاز داره.
۳ فقط پوشه‌های غیرضروری رو مسدود کن: مثل پوشه‌های plugins یا cache. برای Noindex کردن استفاده نکن: این فایل جلوی خزش رو می‌گیره، نه ایندکس. برای حذف صفحه از نتایج، فقط از تگ noindex استفاده کن.
۴ از ابزار تستر گوگل (GSC) استفاده کن: همیشه قبل و بعد از تغییرات، فایلت رو تو سرچ کنسول تست کن. حروف بزرگ/کوچک رو نادیده نگیر: مسیرها (Paths) در robots.txt به حروف بزرگ و کوچک حساس هستن (Case-Sensitive).
۵ جلوی ربات‌های اسپم رو بگیر (اختیاری): می‌تونی User-agent ربات‌های مخرب رو شناسایی و Disallow کنی. فایل‌های مهم هاست رو ویرایش نکن: اگه از طریق هاست ویرایش می‌کنی، مراقب باش فایل .htaccess رو اشتباهی تغییر ندی!

فایل robots.txt چیست و چرا برای سئوی وردپرس حیاتی است؟

robots.txt به زبان ساده: مدیر ترافیک ربات‌های موتور جستجو

بذار خیلی ساده بهت بگم: robots.txt یه فایل متنی (text file) کاملاً ساده‌ست که باید دقیقاً تو پوشه ریشه (root) سایتت قرار بگیره. (یعنی اگه دامنه تو example.com هست، این فایل باید در آدرس example.com/robots.txt قابل دسترس باشه).

وظیفه اصلی این فایل اینه که با ربات‌های موتور جستجو (که بهشون “خزنده” یا “Crawler” هم می‌گیم) حرف بزنه و بهشون بگه به کجای سایتت اجازه دارن سرک بکشن (بخزن یا Crawl کنن) و کدوم بخش‌ها رو باید نادیده بگیرن.

این فایل یه جورایی نقش مدیر ترافیک یا همون نگهبان دمِ درِ سایتت رو بازی می‌کنه.

دستورات اصلی که تو این فایل استفاده می‌کنی معمولاً این‌ها هستن:

  • User-agent: این دستور مشخص می‌کنه که داری با کدوم ربات حرف می‌زنی. مثلاً User-agent: * یعنی «ای همه ربات‌ها…» و User-agent: Googlebot یعنی «ای ربات گوگل…».
  • Disallow: این دستور به ربات می‌گه «این آدرس یا پوشه رو نخز» (Crawl نکن). مثلاً Disallow: /wp-admin/ یعنی لطفاً وارد بخش مدیریت وردپرس من نشو.
  • Allow: این دستور (که کمتر اما هوشمندانه استفاده می‌شه) برعکس Disallow عمل می‌کنه. مثلاً اگه یه پوشه رو Disallow کردی، می‌تونی یه فایل خاص داخل اون پوشه رو Allow کنی.

درک تفاوت فایل robots.txt مجازی وردپرس و فایل فیزیکی

اینجاست که خیلی از کاربرای وردپرس گیج می‌شن و این یه نکته خیلی مهمه.

۱. فایل مجازی (Virtual) وردپرس: وردپرس به‌طور پیش‌فرض یه فایل robots.txt مجازی در حافظه‌ش داره. یعنی چی؟ یعنی حتی اگه تو هیچ فایلی هم تو هاستت نساخته باشی، وقتی آدرس yourdomain.com/robots.txt رو تو مرورگرت باز کنی، یه سری دستورات پیش‌فرض وردپرس رو می‌بینی. این دستورات مجازی معمولاً جلوی خزش پوشه‌های اصلی وردپرس مثل wp-admin و wp-includes رو می‌گیرن.

۲. فایل فیزیکی (Physical): این فایلیه که تو می‌سازی. تو می‌تونی یه فایل متنی ساده به اسم robots.txt بسازی و اون رو تو پوشه ریشه سایتت (معمولاً public_html) آپلود کنی.

نکته طلایی اینجاست: به محض اینکه تو یه فایل robots.txt فیزیکی تو هاستت آپلود می‌کنی، اون فایل فیزیکی، فایل مجازی وردپرس رو لغو می‌کنه (Override می‌کنه) و از این به بعد، ربات‌ها فقط به دستورات فایل فیزیکی تو گوش می‌دن.

چرا این مهمه؟ چون فایل پیش‌فرض و مجازی وردپرس خوبه، اما عالی نیست. برای سئوی حرفه‌ای، تو باید کنترل کامل روی این فایل داشته باشی. خوشبختانه، افزونه‌های سئوی محبوب مثل Yoast SEO یا Rank Math به تو اجازه می‌دن که خیلی راحت و بدون نیاز به دسترسی به هاست، یه فایل robots.txt فیزیکی بسازی و ویرایشش کنی.

آیا اصلاً به فایل robots.txt در وردپرس نیاز داریم؟

جواب کوتاه: بله، حتماً! اما نه به اون دلیلی که اکثر مردم فکر می‌کنن.

یه باور غلط و خیلی رایج اینه که از robots.txt برای ایندکس نشدن (Noindex) صفحات استفاده می‌شه. این کاملاً اشتباهه!

  • اگه می‌خوای صفحه‌ای تو نتایج گوگل نباشه (ایندکس نشه)، باید از تگ meta robots با مقدار noindex تو <head> اون صفحه استفاده کنی.
  • فایل txt فقط جلوی خزش (Crawl) رو می‌گیره. یعنی به ربات می‌گه «زحمت نکش اصلاً این صفحه رو بخونی و بررسی کنی».

پس چرا بهش نیاز داریم؟ ما از robots.txt استفاده می‌کنیم تا جلوی خزش ربات‌ها تو بخش‌های بی‌ارزش سایت رو بگیریم. بخش‌هایی مثل:

  • صفحات مدیریت وردپرس (/wp-admin/)
  • فایل‌های هسته وردپرس و پلاگین‌ها
  • صفحات نتایج جستجوی داخلی سایت
  • صفحات تگ یا آرشیوهای تاریخ که نمی‌خوایم روشون تمرکز سئویی داشته باشیم.

و مهم‌ترین دلیل استفاده ازش، مدیریت «بودجه خزش» هست.

تأثیر مستقیم robots.txt بر بودجه خزش (Crawl Budget)

این مهم‌ترین دلیلیه که تو به‌عنوان یه متخصص سئو (یا صاحب سایت) باید robots.txt رو جدی بگیری.

بودجه خزش (Crawl Budget) چیه؟ گوگل برای خزش هر سایتی یه منابع و زمان محدودی در نظر می‌گیره. یعنی ربات گوگل (Googlebot) در طول روز فقط می‌تونه تعداد مشخصی از صفحات سایت تو رو بررسی کنه و براش مقدور نیست که ۲۴ ساعته کل سایت تو رو بگرده. به این محدودیت زمانی و منابعی، می‌گیم «بودجه خزش».

حالا فرض کن سایت وردپرسی تو کلی صفحه بی‌ارزش داره (مثلاً هزاران صفحه تگ، آرشیوهای زمانی قدیمی، نتایج جستجوی داخلی و…). اگه تو با robots.txt جلوی خزش این صفحات رو نگیری، چه اتفاقی می‌افته؟

ربات گوگل بخش زیادی از بودجه خزش ارزشمندش رو صرف خوندن و بررسی این صفحات به‌دردنخور می‌کنه!

نتیجه‌ش چی می‌شه؟ بودجه روزانه‌ش تموم می‌شه و اصلاً به اون مقالات جدید و مهمی که دیروز منتشر کردی نمی‌رسه! در نتیجه، صفحات جدید و مهم سایتت خیلی دیر ایندکس می‌شن یا اصلاً دیده نمی‌شن چون گوگل وقت نکرده بهشون سر بزنه.

نقش robots.txt اینجاست: تو با Disallow کردن هوشمندانه اون صفحات بی‌ارزش، در واقع داری به گوگل کمک می‌کنی. بهش می‌گی: «هی گوگل! وقتت رو با این صفحات تلف نکن. برو مستقیم سراغ مقالات اصلی و صفحات محصولات من که برام مهمن.»

به زبان ساده، با بهینه‌سازی robots.txt، تو داری بودجه خزش رو مستقیماً به سمت صفحات پول‌ساز و مهم سایتت هدایت می‌کنی. این یعنی خزش سریع‌تر و ایندکس بهترِ محتوای اصلی تو.

جمع‌بندی نهایی

پس بیا یه مرور سریع بکنیم:

  • فایل txt مثل یه نگهبان یا مدیر ترافیک، رفتار ربات‌های موتور جستجو تو سایتت رو کنترل می‌کنه.
  • تو وردپرس، همیشه بهتره یه فایل txt فیزیکی (معمولاً با افزونه سئو) بسازی تا کنترل کامل داشته باشی.
  • کار اصلی این فایل جلوگیری از خزش (Crawl) صفحات بی‌ارزشه، نه جلوگیری از ایندکس (Noindex).
  • و مهم‌ترین تأثیرش، حفظ و هدایت بودجه خزش (Crawl Budget) به سمت صفحاتیه که واقعاً برات اهمیت دارن.

نادیده گرفتن این فایل کوچیک متنی می‌تونه به قیمت دیده نشدن مهم‌ترین بخش‌های سایتت تموم بشه. پس همین الان برو و وضعیت فایل robots.txt سایتت رو بررسی و بهینه‌سازی کن!

چگونه فایل robots.txt فعلی سایت وردپرسی خود را پیدا و بررسی کنیم؟

ساده‌ترین روش: بررسی آدرس domain.com/robots.txt

این سریع‌ترین و ساده‌ترین راهه. فرقی نمی‌کنه سایتت وردپرسه یا هر سیستم دیگه‌ای، این یه استاندارد جهانیه.

  1. مرورگرت رو باز کن.
  2. تو نوار آدرس، دامنه کامل سایتت رو وارد کن و در انتهاش عبارت /robots.txt رو اضافه کن.

مثلاً: https://yourdomain.com/robots.txt (تو باید آدرس دامنه خودت رو جایگزین کنی).

چیزی که تو این صفحه می‌بینی، دقیقاً همون فایلیه که ربات‌های گوگل و بقیه موتورهای جستجو هم می‌بینن. این فایل می‌تونه یکی از این دو حالت باشه:

  • فایل مجازی (Virtual) وردپرس: اگه تو هیچ فایل فیزیکی نساخته باشی، وردپرس به‌طور خودکار یه سری دستورات پیش‌فرض رو اینجا نشون می‌ده (مثل مسدود کردن wp-admin).
  • فایل فیزیکی (Physical): فایلی که خودت دستی ساختی یا (که معمولاً این‌طوریه) افزونه سئوی تو (مثل رنک مث یا یواست) برات ایجاد کرده.

بررسی وجود فایل فیزیکی در روت هاست (Root Directory)

خب، دیدن فایل تو مرورگر عالیه، اما چطور بفهمیم این فایل «مجازی» وردپرسه یا یه فایل «فیزیکی» واقعی که تو هاست ما آپلود شده؟ (یادت باشه که فایل فیزیکی، فایل مجازی رو لغو می‌کنه).

برای این کار باید یه سر به «خونه» سایتت بزنی، یعنی هاست.

  1. وارد پنل مدیریت هاستت شو (مثل cPanel, DirectAdmin یا Plesk).
  2. به بخش File Manager (مدیریت فایل‌ها) برو.
  3. وارد پوشه ریشه (Root) سایتت شو. این پوشه معمولاً اسمش public_html هست (مگر اینکه وردپرس رو تو پوشه دیگه‌ای نصب کرده باشی).
  4. حالا تو این پوشه (کنار پوشه‌های wp-admin, wp-content و…) دنبال فایلی دقیقاً به اسم txt بگرد.

نتیجه این بررسی:

  • اگه فایل txt وجود داشت: تبریک می‌گم، تو یه فایل فیزیکی داری. این همون فایلیه که ربات‌ها می‌بینن و تو می‌تونی مستقیماً ویرایشش کنی (البته پیشنهاد می‌کنم این کار رو همیشه از طریق افزونه سئوت انجام بدی که کارت راحت‌تر باشه).
  • اگه فایل txt وجود نداشت: یعنی چیزی که تو روش اول (تو مرورگر) دیدی، همون فایل «مجازی» و پیش‌فرض وردپرس بوده.

استفاده از ابزار تستر robots.txt در گوگل سرچ کنسول

این دیگه روش حرفه‌ای و تخصصی ما سئوکارهاست. این ابزار فقط بهت نشون نمی‌ده چی تو فایلته، بلکه بهت می‌گه آیا این فایل درست کار می‌کنه و گوگل دقیقاً چی ازش می‌فهمه.

گوگل سرچ کنسول (Google Search Console) یه ابزار عالی به اسم robots.txt Tester داره که بهت اجازه می‌ده کارهای حیاتی زیر رو انجام بدی:

  • دیدن نسخه ذخیره شده: می‌تونی ببینی گوگل آخرین بار کی فایل تو رو بررسی کرده و دقیقاً کدوم نسخه از فایل تو رو تو حافظه‌ش داره.
  • پیدا کردن خطاها: اگه تو فایل دستور اشتباهی (Syntax Error) نوشته باشی، گوگل بهت هشدار می‌ده.
  • تست کردن URL ها (مهم‌ترین بخش): می‌تونی آدرس‌های (URL) مختلف سایتت رو وارد کنی تا ببینی آیا طبق دستورات فعلی تو، اجازه خزش (Allowed) دارن یا مسدود (Disallowed) شدن.

چطور ازش استفاده کنی؟

  1. وارد حساب گوگل سرچ کنسول خودت شو.
  2. مطمئن شو که پراپرتی (سایت) درست رو انتخاب کردی.
  3. به این آدرس برو: https://www.google.com/webmasters/tools/robots-testing-tool
  4. تو این صفحه، گوگل هم محتوای فایل txt تو رو نشون می‌ده.
  5. تو کادر پایین صفحه، می‌تونی یه URL از سایتت (مثلاً آدرس یه مقاله یا یه دسته بندی) رو وارد کنی و دکمه TEST رو بزنی.

این ابزار بهترین راهه تا مطمئن بشی که مثلاً دستوری که برای مسدود کردن (Disallow) یه پوشه نوشتی، اشتباهی جلوی خزش یه صفحه مهم دیگه رو نگرفته باشه. این بررسی برای مدیریت بودجه خزش حیاتیه!

آموزش گام به گام ویرایش و ساخت فایل robots.txt در وردپرس (4 روش اصلی)

روش اول (آسان و پیشنهادی): ویرایش با افزونه سئو (Yoast SEO)

اگه از افزونه محبوب Yoast SEO استفاده می‌کنی، کارت فوق‌العاده راحته. این بهترین روشه چون لازم نیست درگیر هاست و فایل منیجر بشی و خود افزونه حواسش هست که فایل فیزیکی رو درست بسازه و جایگزین اون فایل مجازی پیش‌فرض وردپرس بکنه.

مراحل گام به گام:

  1. از منوی پیشخوان وردپرس، به بخش «سئو» (SEO) برو.
  2. زیرمنوی «ابزارها» (Tools) رو انتخاب کن.
  3. در صفحه‌ای که باز می‌شه، روی گزینه «ویرایشگر فایل» (File editor) کلیک کن.
  4. تو این صفحه، یواست بهت اجازه می‌ده دو تا فایل مهم رو ویرایش کنی: .htaccess و txt.
  5. اگه تا حالا فایل فیزیکی نساخته باشی، یه دکمه به اسم «ساخت فایلtxt» (Create robots.txt file) می‌بینی. روش کلیک کن تا یواست فایل فیزیکی رو برات تو روت هاست ایجاد کنه.
  6. حالا یه کادر متنی می‌بینی که می‌تونی دستورات خودت رو توش تایپ کنی (مثلاً User-agent: * و Disallow: /your-folder/).
  7. بعد از اینکه تغییراتت رو اعمال کردی، دکمه «ذخیره تغییرات درtxt» (Save changes to robots.txt) رو بزن.

به همین سادگی! یواست خودش فایل فیزیکی رو مدیریت می‌کنه.

روش دوم (متداول): ویرایش با افزونه سئو (Rank Math)

روند کار با افزونه قدرتمند Rank Math هم دقیقاً به همین سادگیه و این روش هم دقیقاً مثل یواست، عالی و پیشنهادیه.

مراحل گام به گام:

  1. از منوی پیشخوان وردپرس، به بخش «رنک مث» (Rank Math) برو.
  2. زیرمنوی «تنظیمات عمومی» (General Settings) رو انتخاب کن.
  3. در این صفحه، از بین تب‌های بالا، روی تب «ویرایشtxt» (Edit robots.txt) کلیک کن.
  4. تو این صفحه یه ویرایشگر متن کامل می‌بینی. اگه قبلاً فایلی نساخته باشی، رنک مث یه سری دستورات پیش‌فرض (که خیلی هم بهینه و خوب هستن) رو اینجا برات قرار داده.
  5. تو می‌تونی دستورات خودت رو به این فایل اضافه کنی یا دستورات موجود رو ویرایش کنی.
  6. وقتی کارت تموم شد، دکمه «ذخیره تغییرات» (Save Changes) رو بزن.

رنک مث هم مثل یواست، به‌محض اینکه تو این بخش چیزی ذخیره کنی، یه فایل فیزیکی robots.txt برات تو روت هاست ایجاد می‌کنه. مزیت بزرگ این دو روش اینه که خیالت راحته فایل دقیقاً تو جای درست ساخته می‌شه و لازم نیست نگران دسترسی به هاست باشی.

روش سوم (دسترسی مستقیم): ویرایش از طریق فایل منیجر هاست (cPanel یا DirectAdmin)

این روش یه کم فنی‌تره اما بهت کنترل کامل می‌ده. اگه به هر دلیلی از افزونه سئو استفاده نمی‌کنی (که بعید می‌دونم!) یا افزونه‌ت این قابلیت رو نداره، باید از این روش بری.

مراحل گام به گام:

  1. وارد پنل مدیریت هاستت شو (معمولاً سی‌پنل یا دایرکت ادمین).
  2. دنبال گزینه‌ای به اسم «File Manager» (مدیریت فایل‌ها) بگرد و روش کلیک کن.
  3. وارد پوشه ریشه (Root) سایتت شو. این پوشه معمولاً اسمش public_html هست (مگر اینکه وردپرس رو تو پوشه دیگه‌ای نصب کرده باشی).
  4. حالا تو این پوشه (کنار پوشه‌های wp-admin, wp-content و…) دنبال فایلی دقیقاً به اسم txt بگرد.
  5. اگر فایل وجود داشت: روش راست‌کلیک کن و گزینه «Edit» یا «Code Edit» رو انتخاب کن. دستوراتت رو بنویس و فایل رو ذخیره (Save) کن.
  6. اگر فایل وجود نداشت: از منوی بالای فایل منیجر، روی «New File» یا «+ File» کلیک کن. اسم فایل رو دقیقاً txt بذار (حواست باشه حروف کوچیک و بزرگ مهمه و هیچ غلط املایی نباید داشته باشه).
  7. حالا که فایل خالی ساخته شد، روش راست‌کلیک کن و «Edit» رو بزن. دستوراتت رو داخلش بنویس و ذخیره کن.

یه خواهش! موقع کار با فایل منیجر خیلی مراقب باش. اگه فایلی رو اشتباهی پاک کنی یا اسم فایل robots.txt رو اشتباه بنویسی (مثلاً robot.txt)، کلاً کار نمی‌کنه و ممکنه به سایتت آسیب بزنی.

روش چهارم (برای حرفه‌ای‌ها): اتصال و ویرایش از طریق FTP

این روش دیگه واقعاً برای کاربرای حرفه‌ای و توسعه‌دهنده‌هاست که با FTP راحت‌ترن. FTP مخفف File Transfer Protocol هست و ابزارهایی مثل FileZilla بهت اجازه می‌دن مستقیم به فایل‌های هاستت وصل بشی.

مراحل گام به گام:

  1. به یه نرم‌افزار کلاینت FTP مثل FileZilla نیاز داری.
  2. با استفاده از اطلاعات FTP هاستت (نام میزبان، نام کاربری، رمز عبور و پورت) به سرور وصل شو.
  3. بعد از اتصال، تو ستون سمت راست (Remote site)، به پوشه ریشه سایتت برو (همون public_html یا مشابهش).
  4. فایل txt رو پیدا کن (اگه وجود نداره، می‌تونی یه فایل متنی خالی رو کامپیوترت بسازی، اسمش رو robots.txt بذاری و تو این پوشه آپلودش کنی).
  5. روی فایل txt راست‌کلیک کن و گزینه «View/Edit» (مشاهده/ویرایش) رو بزن.
  6. فایل تو ویرایشگر متن پیش‌فرض کامپیوترت باز می‌شه. تغییراتت رو اعمال کن و فایل رو ذخیره کن (Ctrl+S).
  7. وقتی به FileZilla برگردی، ازت می‌پرسه که «آیا می‌خواهید این فایل تغییریافته روی سرور آپلود شود؟». تو باید «Yes» رو بزنی تا فایل جدید جایگزین فایل قدیمی روی هاست بشه.

جمع‌بندی نهایی و پیشنهاد من

دیدی چقدر راه‌های مختلفی بود؟

پیشنهاد قطعی من چیه؟ همیشه از همون روش اول یا دوم (یعنی افزونه سئو، چه Yoast و چه Rank Math) استفاده کن.

چرا؟ چون هم ساده‌ست، هم امنه و هم مطمئنی که فایل فیزیکی رو درست مدیریت می‌کنه و با تنظیمات دیگه وردپرس تداخلی ایجاد نمی‌کنه. روش‌های سوم و چهارم خوبن، اما ریسک خطای انسانی (مثل پاک کردن یه فایل اشتباهی یا آپلود تو پوشه نادرست) توشون بیشتره.

حالا که یاد گرفتی فایل رو بسازی و ویرایش کنی، تو قدم بعدی باید بدونیم دقیقاً چی باید توش بنویسیم تا بهترین نتیجه رو برای سئوی وردپرس بگیریم.

بهینه‌سازی robots.txt وردپرس: بهترین دستورات (Directives) کدامند؟

آشنایی با دستورات کلیدی: User-agent, Disallow, Allow

فایل robots.txt با چند تا دستور ساده اما قدرتمند کار می‌کنه. بیا اول این سه تا دستور اصلی رو بشناسیم:

۱. User-agent (عامل کاربر): این دستور مشخص می‌کنه که داری با کدوم ربات حرف می‌زنی. مثل اینه که نامه رو با اسم شخص شروع کنی.

  • User-agent: * (علامت ستاره): این یعنی «ای همه ربات‌ها…». دستوری که بعد از این بیاد، برای همه ربات‌ها (گوگل، بینگ، یاهو و…) اعمال می‌شه.
  • User-agent: Googlebot: این یعنی «ای ربات گوگل…». دستورات بعد از این، فقط برای گوگل اعمال می‌شه.

۲. Disallow (مسدود کردن): این دستور اصلی‌ترین ابزار ماست و به ربات می‌گه: «لطفاً به این آدرس یا پوشه وارد نشو و اون رو نخز (Crawl نکن)».

  • مثال: Disallow: /private-folder/ یعنی پوشه‌ی private-folder رو نخز.

۳. Allow (اجازه دادن): این دستور یه کم پیشرفته‌تره و به‌عنوان یه «استثنا» عمل می‌کنه. معمولاً زمانی استفاده می‌شه که تو یه پوشه بزرگ رو Disallow کردی، اما می‌خوای به یه فایل خاص داخل همون پوشه اجازه دسترسی بدی.

  • مثال: فرض کن Disallow: /wp-content/ رو زدی (که کار اشتباهیه!)، بعد می‌تونی بگی Allow: /wp-content/uploads/ تا حداقل بتونه عکس‌ها رو ببینه. (البته جلوتر می‌گم چرا این کار اشتباهه).

افزودن نقشه سایت (Sitemap) به robots.txt (یک قدم ضروری)

این یه دستور (Directive) نیست، بلکه یه «راهنمایی» خیلی مهمه.

تو باید آدرس کامل نقشه سایت (Sitemap) خودت رو تو فایل robots.txt قرار بدی. این کار مثل اینه که به ربات‌های موتور جستجو که برای اولین بار به سایتت میان، یه نقشه کامل بدی و بگی: «سلام! خوش اومدی. این هم لیست تمام صفحات مهم من.»

این کار به گوگل و بقیه ربات‌ها کمک می‌کنه که خیلی سریع‌تر ساختار سایتت رو بفهمن و صفحات جدیدت رو کشف کنن.

نحوه افزودن نقشه سایت: خیلی ساده، فقط این خط رو (معمولاً در انتها یا ابتدای فایل) اضافه کن:

Sitemap: https://yourdomain.com/sitemap_index.xml

(یادت باشه yourdomain.com رو با دامنه خودت و آدرس نقشه سایتت رو (که معمولاً افزونه سئو برات می‌سازه) جایگزین کنی).

قالب پیشنهادی و بهینه robots.txt برای یک سایت وردپرسی استاندارد

خب، می‌رسیم به اصل مطلب. یه فایل robots.txt خوب برای وردپرس، فایلیه که جلوی خزش فایل‌های بی‌اهمیت و تکراری رو می‌گیره اما به گوگل اجازه می‌ده به فایل‌های حیاتی (مثل CSS و JS) برای درک صفحه دسترسی داشته باشه.

قالب بهینه پیشنهادی من:

User-agent: *
 
# مسدود کردن نتایج جستجوی داخلی وردپرس (چون محتوای تکراری ایجاد می‌کنه)
Disallow: /?s=
Disallow: /search/
 
# مسدود کردن پوشه‌هایی که حاوی فایل‌های اجرایی و حساس پلاگین‌ها هستن
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
 
# مسدود کردن فایل‌های حساس (اختیاری اما خوبه)
Disallow: /readme.html
Disallow: /license.txt
 
# مسدود کردن فیدهای غیرضروری (فید اصلی معمولاً کافیه)
Disallow: /comments/feed/
Disallow: /trackback/
 
# اگه از لینک‌های ریدایرکت (مثل افزونه Pretty Links یا Go) استفاده می‌کنی
Disallow: /go/
Disallow: /refer/
 
# اجازه دادن به فایل حیاتی AJAX برای رندر بهتر صفحات
Allow: /wp-admin/admin-ajax.php
 
# --- آدرس نقشه سایت ---
# (آدرس نقشه سایت خودت رو جایگزین کن)
Sitemap: https://yourdomain.com/sitemap_index.xml

نکته مهم: این یه قالب استاندارده. اگه تو پوشه خاص دیگه‌ای داری که نمی‌خوای خزیده بشه (مثلاً پوشه فایل‌های دانلودی اعضای ویژه)، باید خودت دستی به این لیست اضافه‌ش کنی.

مدیریت دسترسی ربات‌های مختلف (Googlebot, Bingbot, ربات‌های AI)

گاهی وقتا تو می‌خوای با ربات‌ها رفتار متفاوتی داشته باشی. مثلاً شاید نخوای ربات‌های هوش مصنوعی (AI) مثل ChatGPT از محتوای تو برای آموزش استفاده کنن، اما می‌خوای گوگل به همه‌جا دسترسی داشته باشه.

تو می‌تونی با استفاده از User-agent های مختلف، این کار رو بکنی:

مثال ۱: مسدود کردن ربات ChatGPT:

User-agent: GPTBotDisallow: /

(دستور Disallow: / یعنی «کل سایت رو مسدود کن»).

مثال ۲: مسدود کردن ربات هوش مصنوعی گوگل (Google-Extended):

User-agent: Google-ExtendedDisallow: /

مثال ۳: رفتار متفاوت با گوگل و بینگ (کمتر رایجه):

User-agent: BingbotDisallow: /expensive-folder/ # این پوشه برای بینگ مسدوده User-agent: GooglebotAllow: /expensive-folder/ # اما برای گوگل آزاده

توصیه من: در ۹۹٪ مواقع، همون User-agent: * (برای همه ربات‌ها) کافیه، مگه اینکه دلیل خیلی خاصی برای مسدود کردن یه ربات خاص (مثل ربات‌های AI) داشته باشی.

چرا نباید پوشه‌های wp-admin و wp-includes را بلاک کنیم؟ (یک باور غلط رایج)

این یکی از مهم‌ترین نکاتیه که باید بدونی و خیلی از قالب‌های قدیمی robots.txt این اشتباه رو می‌کنن.

باور غلط قدیمی: «باید پوشه‌های /wp-admin/ و /wp-includes/ رو کامل Disallow کنیم تا هم امنیت بالا بره و هم بودجه خزش هدر نره.»

چرا این باور غلطه؟ بذار رُک و راست بهت بگم: گوگل دیگه مثل ۱۰ سال پیش فقط متن HTML رو نمی‌خونه. گوگل سایت تو رو رندر (Render) می‌کنه؛ یعنی دقیقاً مثل یه کاربر واقعی با مرورگر کروم، صفحه رو باز می‌کنه تا ببینه چیدمان صفحه، فونت‌ها، رنگ‌ها و المان‌های متحرک چطور به نظر می‌رسن (مخصوصاً برای Mobile-First Indexing).

خب، مشکل کجاست؟ فایل‌های حیاتی که برای «رندر» شدن سایتت لازمن (یعنی فایل‌های CSS و JavaScript) دقیقاً کجا قرار دارن؟ تو پوشه‌های wp-includes و wp-content!

[Image showing Googlebot rendering a page vs. just reading HTML]

اگه تو جلوی دسترسی گوگل به این پوشه‌ها رو بگیری، گوگل نمی‌تونه CSS و JS سایتت رو بخونه. در نتیجه، سایتی که گوگل می‌بینه یه صفحه به هم ریخته، بدون استایل و احتمالاً شکسته (Broken) است. این سیگنال وحشتناکیه و گوگل فکر می‌کنه سایت تو برای کاربر موبایل بهینه نیست (Not Mobile-Friendly) و این می‌تونه رتبه‌ت رو نابود کنه.

راه‌حل چیه؟ ما این پوشه‌ها رو به‌طور کامل Disallow نمی‌کنیم. به همین دلیله که تو قالب پیشنهادی من، دستوری برای مسدود کردن کامل /wp-admin/ یا /wp-includes/ ندیدی. ما فقط به فایل admin-ajax.php که برای عملکردهای حیاتی لازمه، صراحتاً Allow می‌دیم تا مطمئن بشیم گوگل بهش دسترسی داره.

نحوه مسدود کردن (Disallow) یک صفحه، پوشه یا فایل خاص

اگه خواستی به قالب بالا چیزی اضافه کنی، اینجا چند تا مثال کاربردی برات آوردم:

۱. مسدود کردن یک پوشه کامل: (تمام محتوای داخل اون پوشه مسدود می‌شه)

Disallow: /my-private-files/

(حواست به / (اسلش) در انتهای آدرس پوشه باشه).

۲. مسدود کردن یک صفحه خاص: (مثلاً یه صفحه تشکر از خرید که نمی‌خوای تو نتایج باشه)

Disallow: /thank-you-page.htmlDisallow: /thank-you/

یادآوری مهم: Disallow کردن فقط جلوی خزش (Crawl) رو می‌گیره. اگه اون صفحه از قبل ایندکس شده، این دستور جلوی ایندکس شدنش رو نمی‌گیره. برای حذف از نتایج گوگل باید از تگ noindex استفاده کنی.

۳. مسدود کردن یک نوع فایل خاص (مثلاً همه PDF ها): این یه کم حرفه‌ای‌تره و از وایلدکارت‌ها (Wildcards) استفاده می‌کنه:

# جلوی خزش همه فایل‌هایی که به .pdf ختم می‌شن رو بگیرDisallow: /*.pdf$

(علامت * یعنی «هر چیزی» و علامت $ یعنی «در انتهای آدرس»).

جمع‌بندی نهایی

فایل robots.txt تو یه ابزار ساده ولی فوق‌العاده قدرتمند برای مدیریت بودجه خزشه. با استفاده از قالبی که بهت دادم و درک این موضوع که «نباید جلوی رندر شدن صفحه رو بگیریم»، می‌تونی مطمئن باشی که ربات گوگل وقتش رو صرف مهم‌ترین صفحات سایتت می‌کنه.

همین الان برو فایل robots.txt سایتت رو چک کن و مطمئن شو که این بهینه‌سازی‌ها روش اعمال شده باشه!

اشتباهات رایج و خطرناک در robots.txt که سئوی سایت شما را نابود می‌کند!

خطای فاجعه‌بار Disallow: / (مسدود کردن کل سایت)

این ترسناک‌ترین، فاجعه‌بارترین و متأسفانه یه اشتباه رایجه که گاهی اتفاق میفته.

بذار برات کدش رو بشکافم: User-agent: * (یعنی: ای همه ربات‌های دنیا) Disallow: / (یعنی: اجازه ندارید هیچ چیزی رو از ریشه (root) سایت من بخزید)

علامت / (اسلش) به تنهایی، به معنی «کل سایت» هست.

نتیجه چیه؟ تو با این دستور داری خیلی محترمانه به گوگل، بینگ و بقیه می‌گی: «لطفاً کل سایت من رو نادیده بگیرید و از نتایج جستجو حذفش کنید.»

این دستور مثل دکمه «خودتخریبی» (Self-Destruct) برای سئوی سایته. ربات‌ها دیگه سایتت رو نمی‌خزن (Crawl نمی‌کنن) و در عرض چند روز تا چند هفته، می‌بینی که تمام صفحاتت دارن از نتایج گوگل محو می‌شن.

چرا این اتفاق میفته؟ گاهی وقتا یه توسعه‌دهنده موقعی که سایت در حال بازطراحی بوده، این کد رو می‌ذاره تا گوگل نسخه ناقص رو نبینه و یادش می‌ره بعد از راه‌اندازی سایت، این خط رو پاک کنه! یا گاهی فقط یه اشتباه تایپی ساده‌ست.

درس اول: هرگز، هرگز، هرگز از Disallow: / استفاده نکن، مگه اینکه آگاهانه بخوای سایتت رو از اینترنت محو کنی.

بلاک کردن فایل‌های CSS و JavaScript (اختلال در رندرینگ گوگل)

این اشتباهی بود که تو بخش قبلی هم بهش اشاره کردم، اما اونقدر مهمه که باید اینجا دوباره و با صدای بلندتر تکرارش کنم.

باور غلط قدیمی: «بلاک کردن پوشه‌های wp-content/plugins/ و wp-content/themes/ و wp-includes/ کار خوبیه چون جلوی هدر رفتن بودجه خزش رو می‌گیره.»

واقعیت امروز: این کار یه «خودزنی» بزرگ برای سئوی مدرنه.

یادت باشه: گوگل دیگه فقط متن HTML رو نمی‌خونه؛ گوگل سایت تو رو رندر (Render) می‌کنه. یعنی مثل یه کاربر واقعی با مرورگر کروم، صفحه رو باز می‌کنه تا ببینه چیدمان، فونت‌ها، رنگ‌ها و دکمه‌ها چطور به نظر می‌رسن (مخصوصاً برای Mobile-First Indexing).

اگه این فایل‌ها رو بلاک کنی چی می‌شه؟ فایل‌های CSS (که استایل و ظاهر سایتت رو می‌سازن) و فایل‌های JavaScript (که عملکردهای سایت رو اجرا می‌کنن) دقیقاً تو همین پوشه‌هایی هستن که بلاک کردی.

در نتیجه، گوگل وقتی می‌خواد سایتت رو رندر کنه، یه صفحه به هم ریخته، بدون استایل و احتمالاً شکسته (Broken) می‌بینه؛ یه صفحه پر از متن خالی، بدون هیچ ظاهری.

[Image comparing a fully rendered page vs. a page with blocked CSS/JS]

فاجعه اینجاست: گوگل فکر می‌کنه سایت تو برای کاربر موبایل افتضاحه (Not Mobile-Friendly)، تجربه کاربری (UX) ضعیفی داره و در نتیجه، رتبه‌ت رو به‌شدت کاهش می‌ده.

درس دوم: هرگز جلوی دسترسی گوگل به فایل‌های CSS و JS رو نگیر. این فایل‌ها برای رندر شدن و درک کامل صفحه توسط گوگل حیاتی هستن.

استفاده نادرست از حروف بزرگ و کوچک (Case-Sensitivity)

این یه اشتباه فنی اما خیلی رایجه. حواست باشه: دستورات فایل robots.txt، مخصوصاً بخش «مسیرها» (Paths)، به حروف بزرگ و کوچک حساس هستن (Case-Sensitive).

یعنی چی؟ یعنی از نظر ربات‌های گوگل، این سه تا آدرس با هم فرق دارن:

  • /my-page/
  • /My-Page/
  • /my-PAGE/

اشتباه کجاست؟ فرض کن تو یه پوشه تو سایتت داری به اسم Files (با F بزرگ). حالا تو فایل robots.txt می‌نویسی: Disallow: /files/ (با f کوچیک)

نتیجه؟ این دستور کار نمی‌کنه! ربات گوگل به پوشه /Files/ نگاه می‌کنه، دستور تو رو می‌بینه که برای /files/ هست و چون این دو تا دقیقاً یکی نیستن، ربات با خیال راحت وارد پوشه /Files/ می‌شه و محتواش رو می‌خزه.

درس سوم: همیشه موقع نوشتن دستورات Disallow یا Allow، مطمئن شو که مسیرها رو دقیقاً با همون حروف بزرگ یا کوچکی که تو URL واقعی سایتت وجود داره، وارد می‌کنی.

مسدود کردن صفحاتی که قبلاً Noindex شده‌اند

این یه اشتباه منطقی و خیلی ظریفه که سئوکارای تازه‌کار توش میفتن. بیا اول دو تا ابزار رو مرور کنیم:

۱. تگ noindex: این تگ رو تو <head> یه صفحه می‌ذاری. به گوگل می‌گه: «لطفاً این صفحه رو بخز (Crawl کن)، اما تو نتایج جستجوت نشون نده (ایندکس نکن).» ۲. دستور Disallow: این دستور رو تو robots.txt می‌ذاری. به گوگل می‌گه: «اصلاً به این صفحه نزدیک نشو و اون رو نخز (Crawl نکن).»

اشتباه کجاست؟ فرض کن تو یه صفحه داری که تو نتایج گوگل ایندکس شده و می‌خوای حذفش کنی. کار درست اینه که بری بهش تگ noindex اضافه کنی.

اما اگه هم‌زمان با اضافه کردن noindex، بیای و همون صفحه رو تو robots.txt هم Disallow کنی، یه تداخل فاجعه‌بار ایجاد کردی!

چرا؟ چون گوگل برای اینکه تگ noindex تو رو ببینه، باید بتونه اون صفحه رو بخزه. وقتی تو اون صفحه رو Disallow می‌کنی، به گوگل دستور می‌دی که «اون صفحه رو نخز».

نتیجه: گوگل هیچ‌وقت اون صفحه رو نمی‌خزه، در نتیجه هیچ‌وقت تگ noindex جدید تو رو نمی‌بینه و اون صفحه برای همیشه تو نتایج ایندکس گوگل (حتی به‌صورت قدیمی) باقی می‌مونه!

[Image showing a flowchart of this conflict: Disallow -> Google can’t crawl -> Google can’t see Noindex -> Page stays indexed]

درس چهارم: اگه می‌خوای صفحه‌ای رو با noindex از نتایج حذف کنی، باید اجازه خزش (Crawl) اون صفحه رو تو robots.txt بدی. اول مطمئن شو که صفحه از نتایج حذف شده (می‌تونی تو سرچ کنسول یا با دستور site: چکش کنی)، بعد اگه خواستی می‌تونی برای صرفه‌جویی تو بودجه خزش، اون رو Disallow کنی.

جمع‌بندی نهایی

فایل robots.txt شوخی‌بردار نیست. یه اسلش (/) کم یا زیاد، یا یه حرف بزرگ به‌جای کوچیک، می‌تونه کل استراتژی سئوی تو رو مختل کنه.

توصیه همیشگی من: قبل از اینکه هر تغییری رو تو فایل robots.txt ذخیره کنی، حتماً، حتماً و حتماً اون رو تو ابزار «robots.txt Tester» گوگل سرچ کنسول تست کن. آدرس‌های مهم سایتت (صفحه اصلی، مقاله‌ها، دسته‌بندی‌ها) و آدرس‌هایی که می‌خوای مسدود کنی رو توش وارد کن تا مطمئن بشی دقیقاً همون‌طور که انتظار داری کار می‌کنه.

تست و اعتبارسنجی فایل robots.txt پس از اعمال تغییرات

اطمینان از اعمال تغییرات (پاک کردن کش)

این یه مشکل خیلی رایج و کلافه‌کننده‌ست. تو فایل robots.txt رو توی افزونه سئوت (مثل رنک مث یا یواست) ویرایش و ذخیره می‌کنی، بعد بلافاصله آدرس yourdomain.com/robots.txt رو تو مرورگرت باز می‌کنی و… هیچی! هنوز همون فایل قدیمی رو می‌بینی.

چرا؟ جواب تو یه کلمه خلاصه می‌شه: کَش (Cache).

سایت وردپرسی تو (و حتی مرورگر خودت) از لایه‌های مختلف کش استفاده می‌کنه تا سرعت لود سایت بالا بره. فایل robots.txt هم چون یه فایل متنی ساده‌ست، معمولاً کش می‌شه.

برای اینکه مطمئن بشی فایل جدیدت دیده می‌شه، باید این قدم‌ها رو به ترتیب طی کنی:

۱. کش مرورگر (Hard Refresh): اولین و ساده‌ترین کار. تو همون صفحه‌ای که فایل robots.txt رو باز کردی، به جای رفرش معمولی (F5)، یه «رفرش قوی» (Hard Refresh) انجام بده.

  • تو ویندوز (کروم/فایرفاکس): Ctrl + Shift + R
  • تو مک (کروم/فایرفاکس): Cmd + Shift + R
  • روش جایگزین: سایت رو تو یه پنجره «ناشناس» (Incognito) باز کن که هیچ کشی از قبل نداره.

۲. کش افزونه وردپرس (خیلی مهمه): اگه مرحله ۱ جواب نداد، مقصر اصلی احتمالاً افزونه کش توئه (مثل WP Rocket, LiteSpeed Cache, WP Super Cache و…).

  • باید بری به تنظیمات افزونه کشت و دکمه «پاک کردن کل کش» (Purge All Cache / Clear All Cache) رو بزنی. این کار کل حافظه پنهان سایتت رو خالی می‌کنه و وردپرس رو مجبور می‌کنه فایل جدید txt رو نشون بده.

۳. کش CDN یا سرور: اگه از CDN مثل «کلادفلر» (Cloudflare) یا کش‌های سمت سرور (مثل Varnish) استفاده می‌کنی، ممکنه لازم باشه یه سر هم به پنل اون‌ها بزنی و کش رو از اونجا هم پاک کنی. (تو کلادفلر گزینه‌ای به اسم «Purge Everything» وجود داره).

نشونه موفقیت: وقتی آدرس yourdomain.com/robots.txt رو تو مرورگرت (ترجیحاً Incognito) رفرش می‌کنی و می‌تونی دستورات جدید خودت رو ببینی.

تست نهایی با Google Search Console

خب، حالا که تو می‌تونی فایل جدید رو ببینی، باید مطمئن بشیم که گوگل هم می‌بینه و مهم‌تر از اون، دستورات تو رو درست درک می‌کنه.

اینجا دیگه «ابزار تستر robots.txt» در گوگل سرچ کنسول، حرف اول و آخر رو می‌زنه. این ابزار بهترین دوست تو برای جلوگیری از فاجعه‌ست!

مراحل تست نهایی:

۱. ورود به ابزار: وارد حساب گوگل سرچ کنسولت شو و به ابزار robots.txt Tester برو. (می‌تونی مستقیم تو گوگل سرچ کنی robots.txt Tester و واردش بشی).

۲. چک کردن نسخه گوگل: به محض ورود، این ابزار بهت نشون می‌ده که آخرین نسخه‌ای که گوگل از فایل robots.txt تو ذخیره (Fetch) کرده چیه و مربوط به چه تاریخیه. * سوال: آیا کدی که اینجا می‌بینی، همون کد جدید و بهینه‌شده‌ایه که تو ذخیره کردی؟

۳. درخواست آپدیت (قدم حیاتی): * اگه گوگل هنوز نسخه قدیمی رو داشت: اصلاً نگران نباش. کنار ویرایشگر، معمولاً دکمه‌ای به اسم «Submit» (ارسال) وجود داره. * روی اون کلیک کن. یه پاپ‌آپ باز می‌شه که ازت می‌خواد دوباره تایید کنی. * با این کار تو مستقیماً به گوگل سیگنال می‌دی: «هی گوگل! من فایل robots.txt رو عوض کردم. لطفاً همین الان بیا و نسخه جدیدش رو بخون.» این کار معمولاً روند آپدیت شدن رو خیلی سریع‌تر می‌کنه.

۴. تست منطق دستورات (مهم‌ترین بخش): حالا که فایل جدید تو ابزار لود شده (یا حتی می‌تونی خودت کد جدیدت رو تو ویرایشگر ابزار پیست کنی)، وقت تست نهایی منطقه: * تست صفحات مجاز: آدرس (URL) یکی از مقاله‌های مهم یا صفحه اصلی سایتت رو تو کادر تست پایین صفحه وارد کن. نتیجه باید سبز و Allowed (مجاز) باشه. * تست صفحات مسدود شده: آدرس صفحه‌ای که می‌خواستی مسدود کنی رو وارد کن (مثلاً: /my-private-folder/). نتیجه باید قرمز و Disallowed (مسدود) باشه. * چک کردن خطاهای سینتکس: ببین آیا خود ابزار هیچ خط (Error) یا اخطار (Warning) زرد رنگی بابت دستورات اشتباه بهت نشون می‌ده یا نه.

تا وقتی که تو این ابزار، نتیجه تست URL های مهمت سبز (Allowed) و نتیجه تست URL های مسدودی‌ت قرمز (Disallowed) نشده، کارت با فایل robots.txt تموم نشده!

سوالات متداول درباره robots.txt در وردپرس

تفاوت robots.txt و فایل .htaccess چیست؟

این یکی از مهم‌ترین تفاوت‌های فنیه که باید بدونی. این دو فایل هر دو تو ریشه (root) هاستت زندگی می‌کنن، اما کارشون هیچ ربطی به هم نداره.

۱. فایل robots.txt (نگهبان مودب دمِ در):

  • کارش چیه؟ مدیریت ربات‌های موتور جستجو (مثل Googlebot).
  • چطور کار می‌کنه؟ با «درخواست کردن». این فایل به ربات‌ها می‌گه: «لطفاً به این بخش‌ها نرو.»
  • قدرتش چقدره؟ یه «درخواست» محترمانه‌ست. ربات‌های معتبر (مثل گوگل و بینگ) بهش احترام می‌ذارن، اما یه ربات مخرب یا اسپم می‌تونه کاملاً نادیده‌ش بگیره.
  • مثال: Disallow: /private/ (لطفاً این پوشه رو نخز).

۲. فایل .htaccess (قانون‌گذار و مأمور اجرای سرور):

  • کارش چیه؟ مدیریت سرور (مخصوصاً سرورهای آپاچی که اکثر هاست‌های وردپرس ازش استفاده می‌کنن).
  • چطور کار می‌کنه؟ با «دستور دادن» و «اجرا کردن». این فایل قوانین سطح سرور رو تعیین می‌کنه.
  • قدرتش چقدره؟ مطلق! برخلاف txt، این فایل «درخواست» نمی‌کنه، بلکه «مجبور» می‌کنه. می‌تونه دسترسی یه IP رو کاملاً مسدود کنه، تمام ترافیک رو از http به https ریدایرکت ۳۰۱ کنه، یا ساختار پیوندهای یکتای وردپرس رو مدیریت کنه.
  • مثال: Redirect 301 /old-page.html /new-page.html (کاربر و ربات رو مجبور می‌کنه به صفحه جدید برن).

تشبیه ساده:

  • txt مثل یه تابلوی «لطفاً وارد نشوید» روی یه درِ بازه.
  • .htaccess مثل یه درِ فولادی قفل‌شده‌ست که فقط با کلید یا مجوز خاص باز می‌شه.

آیا می‌توانم از robots.txt برای حذف یک صفحه از نتایج گوگل استفاده کنم؟

جواب کوتاه و قاطع: نه! این یکی از رایج‌ترین و بزرگ‌ترین باورهای غلط در سئو هست.

لطفاً این دو مفهوم رو برای همیشه از هم جدا کن:

  • Crawl (خزیدن): کاری که txt مدیریتش می‌کنه. یعنی «اجازه ورود و بررسی کردن».
  • Index (ایندکس شدن): کاری که تگ noindex مدیریتش می‌کنه. یعنی «اجازه نمایش در نتایج جستجو».

وقتی تو یه صفحه رو Disallow می‌کنی (با robots.txt): تو فقط داری به گوگل می‌گی: «زحمت نکش این صفحه رو بخونی.»

مشکل کجاست؟ اگه اون صفحه از قبل تو نتایج گوگل ایندکس شده باشه (یا حتی اگه ایندکس نشده باشه ولی از جاهای دیگه بهش لینک داده شده باشه)، گوگل می‌دونه که این صفحه وجود داره.

چون تو بهش اجازه خزش نمی‌دی، گوگل نمی‌تونه محتوای صفحه رو ببینه، اما ممکنه خودِ URL رو تو نتایج نگه داره و زیرش بنویسه: «به دلیل فایل robots.txt این سایت، توضیحی برای این نتیجه در دسترس نیست.» (A description for this result is not available because of this site’s robots.txt.)

راه‌حل درست برای حذف صفحه از نتایج گوگل چیه؟ تو باید از تگ meta robots با مقدار noindex تو بخش <head> اون صفحه استفاده کنی. (افزونه‌های سئو این گزینه رو تو تنظیمات هر برگه/نوشته دارن).

نکته طلایی: وقتی می‌خوای صفحه‌ای رو noindex کنی، نباید اون صفحه رو تو robots.txt مسدود (Disallow) کنی. چرا؟ چون گوگل باید بتونه صفحه رو بخزه تا بتونه تگ noindex تو رو ببینه و بعدش اون صفحه رو از نتایج حذف کنه.

تغییرات در robots.txt چقدر طول می‌کشد تا توسط گوگل شناسایی شود؟

این تغییرات لحظه‌ای و آنی نیستن.

گوگل فایل robots.txt تو رو «کَش» (Cache) می‌کنه. یعنی یه نسخه ازش رو تو حافظه‌ش نگه می‌داره و هر بار که به سایتت سر می‌زنه، دوباره اون فایل رو دانلود نمی‌کنه (چون کار بیهوده‌ایه و بودجه خزش رو هدر می‌ده).

یه قانون کلی: گوگل معمولاً هر ۲۴ ساعت یک‌بار (یا گاهی بیشتر، بسته به اعتبار و بزرگی سایتت) فایل robots.txt رو دوباره چک می‌کنه تا ببینه آپدیت شده یا نه.

پس اگه تو تغییری ایجاد کردی، ممکنه تا ۲۴ ساعت طول بکشه تا گوگل متوجه اون تغییر بشه.

چطور این روند رو سریع‌تر کنیم؟ (همونطور که قبلاً گفتیم) بهترین، سریع‌ترین و مطمئن‌ترین راه اینه که خودت دست به کار بشی:

  1. برو به ابزار txt Tester تو گوگل سرچ کنسول.
  2. مطمئن شو که کد جدیدت رو می‌بینی (اگه نمی‌دیدی، یعنی کش داری و باید پاکش کنی).
  3. از دکمه «Submit» (ارسال) استفاده کن.

وقتی تو از این دکمه استفاده می‌کنی، داری مستقیماً به گوگل می‌گی: «هی گوگل! من فایل رو آپدیت کردم. لطفاً کش قبلی رو دور بریز و همین الان بیا نسخه جدید رو بخون.» این کار معمولاً روند شناسایی رو از ۲۴ ساعت به چند دقیقه کاهش می‌ده.

جمع‌بندی نهایی راهنما

خب، دمت گرم که تا انتهای این راهنمای جامع با من همراه بودی. حالا تو دقیقاً می‌دونی که فایل robots.txt چیه و چطور از یه «نگهبان دمِ در» ساده، به یه «مدیر ترافیک هوشمند» برای ربات‌های گوگل تبدیلش کنی.

یادت نره، اصل ماجرا اینه:

  1. مدیریت بودجه خزش: تو داری به گوگل کمک می‌کنی وقتش رو روی صفحات مهم تو بذاره، نه فایل‌های سیستمی و نتایج جستجوی داخلی.
  2. خزش ≠ ایندکس: این فایل جلوی خزش (Crawl) رو می‌گیره، نه ایندکس (Index). برای حذف صفحه از نتایج، فقط و فقط از تگ noindex استفاده کن.
  3. تست، تست، تست: هر تغییری که دادی، قبل از اینکه خیالت راحت بشه، برو تو ابزار تستر سرچ کنسول و مطمئن شو که همه‌چیز (مخصوصاً صفحات اصلیت) Allowed هستن.

فایل robots.txt شاید کوچیک باشه، اما تأثیرش تو سئوی فنی سایتت غول‌آساست. مدیریت درست این فایل یکی از پایه‌های اصلی سئوی تکنیکال موفقه. همین الان برو فایل سایتت رو طبق این آموزش چک کن و اگه سوالی داشتی، من و تیم «وزیر سئو» آماده‌‌ایم کمکت کنیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *