مقالات

راهنمای تخصصی رفع محتوای تکراری (Duplicate Content) در ووکامرس (راه حل قطعی برای فیلترها، محصولات متغیر و صفحه‌بندی)

راهنمای تخصصی رفع محتوای تکراری (Duplicate Content) در ووکامرس (راه حل قطعی برای فیلترها، محصولات متغیر و صفحه‌بندی)

اگه یه فروشگاه ووکامرسی داری، به احتمال زیاد با یه قاتل خاموش رتبه‌هات درگیری، بدون اینکه حتی روحتم خبر داشته باشه: محتوای تکراری (Duplicate Content).

خیلی از مدیران سایت‌ها نمی‌دونن که چطور سیستم فیلتر محصولات، متغیرها (رنگ و سایز)، صفحات مرتب‌سازی و حتی برچسب‌ها می‌تونه در عرض چند ماه هزاران صفحه تکراری و بی‌ارزش بسازه. این صفحات بودجه خزش (Crawl Budget) تو رو نابود می‌کنن، گوگل رو گیج می‌کنن و باعث هم‌نوع‌خواری (Cannibalization) کلمات کلیدی می‌شن.

اما نگران نباش! تو این راهنمای جامع، قراره تمام این مشکلات رو با هم قدم به قدم حل کنیم. این بخشی از سئو تخصصی ووکامرس هست که یاد می‌گیری چطور سایتت رو از نظر فنی تمیز و بهینه کنی تا گوگل عاشقت بشه.

جدول تقلب: مدیریت انواع محتوای تکراری در ووکامرس

قبل از اینکه عمیق بشیم، این جدول کاربردی رو داشته باش تا یه دید کلی از مشکل و راه‌حل به دست بیاری:

نوع محتوای تکراری (منبع مشکل) چرا برای سئو بد است؟ راه‌حل اصولی و پیشنهادی
فیلترهای محصولات (رنگ، سایز و…) ایجاد هزاران URL ترکیبی و بی‌ارزش، هدر رفتن بودجه خزش. meta robots=”noindex, follow” (برای ترکیبات پیچیده)

 

rel=”canonical” (برای فیلترهای ساده)

محصولات متغیر (Variable Products) گیج شدن گوگل برای انتخاب URL اصلی، تقسیم شدن اعتبار لینک‌ها. rel=”canonical” (همه متغیرها به URL اصلی محصول)
مرتب‌سازی (Sort by price, popularity) ایجاد URLهای مختلف با محتوای یکسان (فقط ترتیب متفاوت). rel=”canonical” (همه به URL تمیز و اصلی دسته‌بندی)
صفحه‌بندی (Pagination) خطر کنونیکال اشتباه به صفحه ۱ و ایندکس نشدن محصولات. کنونیکال به خود صفحه (Self-Referencing Canonical)
برچسب‌ها (Tags) همپوشانی با دسته‌بندی‌ها و ایجاد محتوای ضعیف (Thin Content). meta robots=”noindex, follow” (در ۹۹٪ مواقع بهترین کار است)
پارامترهای UTM و add-to-cart تقسیم اعتبار در صورت عدم مدیریت صحیح (اگرچه گوگل معمولاً مدیریت می‌کند). rel=”canonical” (به URL اصلی و تمیز)

محتوای تکراری در ووکامرس چیست و چرا بودجه خزش (Crawl Budget) شما را نابود می‌کند؟

بیا روراست باشیم؛ محتوای تکراری (Duplicate Content) توی ووکامرس، مثل یه کابوس برای سئوی سایت فروشگاهیه. به زبان ساده، محتوای تکراری یعنی یک محتوای یکسان (یا خیلی خیلی شبیه) از طریق چند آدرس URL مختلف در دسترس باشه.

فکر کن یه محصول داری، مثلاً «کفش نایک مدل X»، اما گوگل می‌تونه این محصول رو از ۱۰ تا آدرس مختلف ببینه! (مثلاً یکی با www، یکی بدون www، یکی با فیلتر رنگ، یکی با مرتب‌سازی قیمت). اینجاست که فاجعه شروع می‌شه.

حالا چرا این بده؟ چون تو یه «بودجه خزش» (Crawl Budget) محدود داری. بودجه خزش یعنی مقدار زمانی که ربات‌های گوگل حاضرن توی سایت تو صرف کنن و صفحاتت رو بررسی (Crawl) کنن.

وقتی گوگل‌بات میاد و می‌بینه ۱۰ تا آدرس مختلف، یه محتوای یکسان دارن، گیج می‌شه و منابع با ارزشش رو صرف خزیدن توی این صفحات تکراری می‌کنه. نتیجه‌اش چیه؟ گوگل‌بات خسته می‌شه و قبل از اینکه به محصولات جدید و مهم تو برسه، سایتت رو ترک می‌کنه. این یعنی ایندکس شدن محصولات جدیدت ممکنه خیلی طول بکشه و عملاً بودجه خزش تو هدر رفته.

درک مفهوم Duplicate Content از دیدگاه گوگل

برخلاف تصور خیلی از افراد، گوگل معمولاً سایت‌ها رو به خاطر داشتن محتوای تکراری جریمه (Penalty) نمی‌کنه (مگر اینکه این کار با نیت فریبکارانه انجام بشه). مشکل اصلی گوگل «سردرگمی» هست.

وقتی گوگل با چند نسخه از یک صفحه مواجه می‌شه، چند تا سوال براش پیش میاد:

  • کدوم نسخه اصلیه؟ (کدوم رو باید کنونیکال در نظر بگیرم؟)
  • باید کدوم نسخه رو ایندکس کنم و در نتایج جستجو نشون بدم؟
  • ارزش و اعتبار (Link Juice) این صفحات رو باید بینشون تقسیم کنم یا روی یکی متمرکز کنم؟

این سردرگمی باعث می‌شه که گوگل نتونه سیگنال‌های اعتبار (مثل بک‌لینک‌ها) رو به‌درستی روی یک صفحه واحد متمرکز کنه. در واقع، به جای اینکه یه صفحه قوی با ۱۰۰ امتیاز داشته باشی، ۱۰ تا صفحه ضعیف با ۱۰ امتیاز داری. گوگل دنبال محتوای اصیل و با ارزشه و این تکرارها، کار رو براش سخت می‌کنه.

چگونه پارامترهای URL (مانند فیلترها) باعث ایجاد هزاران صفحه تکراری می‌شوند؟

این دقیقاً قلب مشکل توی ووکامرسه. فروشگاه‌های اینترنتی ذاتاً «پویا» هستن. تو به کاربر اجازه می‌دی محصولات رو بر اساس رنگ، اندازه، قیمت (مرتب‌سازی صعودی/نزولی)، برند و… فیلتر کنه.

هر بار که کاربر روی یک فیلتر کلیک می‌کنه، ووکامرس (یا افزونه‌های فیلتر) یک پارامتر (Parameter) به انتهای URL اضافه می‌کنه تا اون حالت نمایش رو حفظ کنه.

بیا یه مثال واقعی بزنیم:

فرض کن آدرس صفحه «دسته‌بندی شلوار» اینه: example.com/pants/

حالا کاربر فیلترها رو اعمال می‌کنه:

  1. بر اساس رنگ آبی: com/pants/?filter_color=blue
  2. بر اساس رنگ آبی و سایز L: com/pants/?filter_color=blue&filter_size=L
  3. بر اساس رنگ آبی، سایز L و مرتب‌سازی قیمت: com/pants/?filter_color=blue&filter_size=L&sortby=price_asc

از دید تو و کاربر، این‌ها همش «صفحه شلوار» هستن. اما از دید گوگل، این ۳ تا، URLهای کاملاً متفاوت هستن که محتوای ۹۹٪ یکسان (فقط با چینش متفاوت محصولات) نشون می‌دن.

حالا این رو در تعداد فیلترها و ترکیب‌های ممکن ضرب کن. تو به سادگی می‌تونی ده‌ها هزار صفحه تکراری بسازی بدون اینکه حتی روحتم خبر داشته باشه! پارامترهای UTM برای ردیابی کمپین‌های تبلیغاتی هم دقیقاً همین بلا رو سر سایتت میارن.

تاثیر مستقیم محتوای تکراری بر کنیبالیزیشن (Keyword Cannibalization) و افت رتبه

وقتی گوگل گیج می‌شه که کدوم صفحه رو برای کلمه کلیدی «خرید شلوار جین آبی» نشون بده (صفحه اصلی دسته؟ صفحه فیلتر شده بر اساس رنگ آبی؟)، پدیده هم‌نوع‌خواری کلمات کلیدی (Keyword Cannibalization) رخ می‌ده.

یعنی صفحات مختلف سایت خودت دارن با هم رقابت می‌کنن! به جای اینکه گوگل یه صفحه قوی از تو رو در رتبه ۳ بیاره، ممکنه یه روز نسخه A (صفحه اصلی) رو در رتبه ۱۵ و روز بعد نسخه B (صفحه فیلتر شده) رو در رتبه ۲۰ نشون بده.

این نوسان رتبه و تقسیم شدن اعتبار، مستقیماً باعث افت رتبه‌ات می‌شه. تو عملاً داری قدرت خودت رو تضعیف می‌کنی و به کاربر هم تجربه خوبی ارائه نمی‌دی ، چون ممکنه اون رو به صفحه‌ای بفرستی که بهینه نشده.

شناسایی صفحات تکراری: استفاده از گزارش‌های Google Search Console و ابزارهای خزش (مانند Screaming Frog)

خب، حالا چطور این صفحات تکراری رو پیدا کنیم؟ خوشبختانه ابزارهای دقیقی برای این کار داریم. دنبال کردن این دو مرحله بهترین راهه:

۱. گوگل سرچ کنسول (Google Search Console)

این بهترین نقطه شروعه چون مستقیم بهت می‌گه گوگل سایتت رو چطور می‌بینه.

  • به بخش Pages (صفحه‌ها) یا همون Coverage (پوشش) سابق برو.
  • دنبال این دو تا وضعیت بگرد:
    • Duplicate without user-selected canonical (تکراری، کاربر نسخه استاندارد انتخاب نکرده): این یعنی گوگل چند صفحه یکسان پیدا کرده و خودش هم نمی‌دونه کدوم اصلیه. این‌ها خطرناک‌ترین نوع تکراری هستن.
    • Duplicate, Google chose different canonical than user (تکراری، گوگل نسخه‌ای متفاوت از نسخه استاندارد انتخاب‌شده توسط کاربر را انتخاب کرده): این یعنی تو یه تگ کنونیکال (Canonical) گذاشتی، اما گوگل به دلایلی (معمولاً محتوای متفاوت یا سیگنال‌های ضعیف) اون رو نادیده گرفته و یه صفحه دیگه رو اصلی تشخیص داده.
  • همچنین وضعیت Crawled – currently not indexed (خزیده شده – در حال حاضر ایندکس نشده) رو هم چک کن. خیلی وقت‌ها صفحات تکراری و بی‌ارزش ناشی از فیلترها در این بخش جمع می‌شن.

۲. ابزارهای خزشگر (Crawlers) مثل Screaming Frog

ابزارهایی مثل اسکریمینگ فراگ (Screaming Frog) یا Sitebulb مثل ربات گوگل سایتت رو کامل می‌خزن و بهت گزارش می‌دن.

  • بعد از اینکه سایتت رو کامل خزیدی (Crawl)، می‌تونی مستقیم به گزارش URL بری و لیست URLها رو بر اساس ساختار پارامتری (هر چیزی که بعد از علامت ? میاد) مرتب کنی. اینجوری الگوهای تکراری رو سریع پیدا می‌کنی.
  • همچنین می‌تونی به تب Content بری و دنبال بخش Duplicate بگردی. این ابزار بهت لیستی دقیق از URLهایی می‌ده که محتوای کاملاً یکسان یا خیلی مشابه دارن.

با ترکیب دیتای سرچ کنسول (که گوگل چی دیده) و دیتای اسکریمینگ فراگ (که ساختار سایتت چیه)، می‌تونی به یه دید کامل و جامع برای حل این مشکل برسی.

کابوس فیلترها: مدیریت کامل ناوبری لایه‌ای (Faceted Navigation)

ناوبری لایه‌ای یا همون Faceted Navigation، چیزی نیست جز همون سیستم فیلتر محصولات (بر اساس رنگ، سایز، قیمت و…) که به کاربر کمک می‌کنه سریع‌تر به محصول مورد نظرش برسه. این قابلیت برای «تجربه کاربری» (UX) فوق‌العاده‌ است، اما برای «سئو» می‌تونه یه کابوس مطلق باشه.

چرا؟ چون همونطور که قبلاً گفتیم، هر ترکیب فیلتر می‌تونه یه URL جدید با محتوای تکراری بسازه و بودجه خزش تو رو نابود کنه. حالا سوال اینجاست: چطور این سیستم رو مدیریت کنیم که هم کاربر راضی باشه و هم گوگل؟

چرا robots.txt برای بستن فیلترها راه‌حل مناسبی نیست؟ (اشتباه رایج)

این اولین و رایج‌ترین اشتباهیه که خیلی‌ها مرتکب می‌شن. با خودشون می‌گن: «خب، نمی‌خوام گوگل این صفحات فیلتر رو ببینه، پس توی فایل robots.txt مسدودش می‌کنم (Disallow)»

این کار یه اشتباه بزرگه! چرا؟

فایل robots.txt فقط جلوی «خزیدن» (Crawl) گوگل رو می‌گیره، نه جلوی «ایندکس شدن» (Index).

بذار ساده‌تر بگم:

  1. گوگل همچنان صفحات رو می‌بینه: اگر یه لینک خارجی (مثلاً از یه سایت دیگه یا حتی از یه صفحه داخلی خودت) به اون URL فیلتر شده داده بشه، گوگل از وجود اون صفحه باخبر می‌شه.
  2. نمی‌تونه محتوا رو بخونه: چون تو با txt جلوش رو گرفتی، گوگل‌بات نمی‌تونه وارد صفحه بشه تا محتواش رو بخونه.
  3. نمی‌تونه تگ‌های مهم رو ببینه: از همه مهم‌تر، گوگل نمی‌تونه تگ rel=”canonical” یا تگ meta robots=”noindex” تو رو ببینه (چون اصلاً اجازه ورود به صفحه رو نداره).
  4. ایندکس بدون محتوا: در نتیجه، گوگل ممکنه اون URL رو ایندکس کنه، اما چون محتواش رو ندیده، فقط همون URL رو در نتایج نشون می‌ده (گاهی با تیتر “No information is available for this page”). تو عملاً یه صفحه زامبی و بی‌ارزش رو وارد نتایج جستجو کردی.

پس یادت باشه: robots.txt برای مدیریت محتوای تکراری نیست.

راه‌حل اصولی: استفاده هوشمندانه از rel=”canonical” برای فیلترهای اصلی

خب، راه‌حل درست چیه؟ اولین قدم، استفاده از تگ rel=”canonical” (تگ استاندارد) هست.

این تگ به گوگل می‌گه: «هی گوگل، این صفحه‌ای که داری می‌بینی (مثلاً …/pants/?filter_color=blue) در واقع یه نسخه فرعی از یه صفحه دیگه‌ است. لطفاً تمام اعتبار و رتبه رو به این آدرس اصلی بده: …/pants/»

این راه‌حل برای اکثر فیلترهای ساده عالیه. تو به گوگل اجازه می‌دی صفحات فیلتر رو بخزه، لینک‌های محصولات داخلش رو پیدا کنه، اما فقط نسخه اصلی (صفحه دسته‌بندی مادر) رو ایندکس کنه. اینجوری جلوی تقسیم شدن اعتبار (Link Juice) رو می‌گیری و همه چیز روی یه صفحه قوی متمرکز می‌شه.

پیاده‌سازی تگ meta robots (noindex, follow) برای جلوگیری از ایندکس ترکیبات فیلتر

حالا فرض کن تو ترکیب‌های خیلی پیچیده‌ای از فیلترها داری (مثلاً رنگ آبی + سایز L + مرتب‌سازی بر اساس ارزان‌ترین). اینجا جاییه که تگ کنونیکال ممکنه به‌تنهایی کافی نباشه و بخوایم یه دستور قوی‌تر به گوگل بدیم.

بهترین و قوی‌ترین راه‌حل در این موارد، استفاده از تگ متا رباتس به این شکله: <meta name=”robots” content=”noindex, follow”>

بیا این دستور رو با هم کالبدشکافی کنیم:

  • noindex (ایندکس نکن): این یه دستور صریح به گوگله. یعنی: «به هیچ وجه این صفحه رو در نتایج جستجو نمایش نده.» اینجوری مستقیماً جلوی ورود صفحات تکراری به گوگل رو می‌گیری.
  • follow (دنبال کن): این بخش طلایی ماجراست. یعنی: «اگرچه این صفحه رو ایندکس نمی‌کنی، اما لطفاً تمام لینک‌های داخل این صفحه (لینک محصولات) رو دنبال کن و اعتبارشون رو منتقل کن.»

با این ترکیب هوشمندانه، تو دو تا هدف رو همزمان می‌زنی: ۱. جلوی ایندکس شدن هزاران صفحه تکراری و بی‌ارزش رو می‌گیری. ۲. مطمئن می‌شی که بودجه خزش هدر نرفته و گوگل‌بات می‌تونه از طریق همین صفحات فیلتر، به محصولاتت برسه و اون‌ها رو ایندکس کنه.

تجربه تخصصی: بهترین تنظیمات افزونه (Yoast/Rank Math) برای کنترل URL فیلترها

خوشبختانه لازم نیست این تگ‌ها رو دستی وارد کنی. افزونه‌های سئو مثل رنک مث (Rank Math) یا یواست سئو (Yoast SEO) تنظیمات خوبی برای این کار دارن.

اگرچه تنظیمات دقیق بین افزونه‌ها متفاوته، اما دنبال این گزینه‌ها بگرد:

  • در Rank Math: معمولاً در بخش «تنظیمات عمومی» (General Settings) و بعد «پیوندها» (Links)، گزینه‌ای برای «حذف پایگاه دسته‌بندی» (Strip Category Base) یا مدیریت پارامترها وجود داره. اما مهم‌تر از اون، در بخش «عناوین و متا» (Titles & Meta) برای هر نوع آرشیو (مثل دسته‌ها، برچسب‌ها) می‌تونی متا ربات پیش‌فرض رو تعیین کنی.
  • در Yoast SEO: به بخش «جستجو در گوگل» (Search Appearance) برو. در تب «طبقه‌بندی‌ها» (Taxonomies) یا «بایگانی‌ها» (Archives) می‌تونی تنظیمات متا ربات‌ها رو کنترل کنی.

تجربه تخصصی من چی می‌گه؟ بسیاری از این افزونه‌ها به طور خودکار پارامترهای ناشناخته رو noindex می‌کنن یا بهت اجازه می‌دن پارامترهای خاصی رو noindex کنی. بهترین کار اینه که مطمئن بشی افزونه‌ات URLهای ایجاد شده توسط فیلترها رو به صورت خودکار noindex, follow می‌کنه. اگر افزونه فیلتر مخصوصی داری (مثل فیلتر محصولات ووکامرس)، حتماً تنظیمات سئوی خود اون افزونه رو هم چک کن؛ خیلی از اون‌ها گزینه‌های داخلی برای noindex کردن یا کنونیکال زدن URLهای فیلتر دارن.

معرفی ابزار URL Parameters در سرچ کنسول (و چرا باید با احتیاط استفاده شود)

در گذشته، گوگل سرچ کنسول یه ابزار قدیمی به اسم “URL Parameters” داشت. تو می‌تونستی وارد این ابزار بشی و به صورت دستی به گوگل بگی با هر پارامتر چطور رفتار کنه. مثلاً بگی پارامتر filter_color فقط محتوا رو «مرتب» می‌کنه و نباید خزیده بشه، یا پارامتر sortby اصلاً اهمیتی نداره.

چرا می‌گم «باید با احتیاط استفاده شود»؟

  1. ابزار منسوخ شده: این ابزار رسماً توسط گوگل منسوخ (Deprecated) شده و دیگه در سرچ کنسول جدید در دسترس نیست. گوگل اعلام کرده که الگوریتم‌هاش حالا خیلی هوشمندتر شدن و در ۹۹٪ مواقع خودشون می‌تونن نحوه رفتار پارامترها رو تشخیص بدن.
  2. خطرناک بود: این ابزار به‌شدت خطرناک بود. اگر تو به اشتباه پارامتر مهمی (مثلاً پارامتر صفحه‌بندی page/2/) رو می‌بستی، عملاً دسترسی گوگل به بخش بزرگی از محصولاتت رو قطع می‌کردی و سایتت از نتایج حذف می‌شد.

درس امروزش چیه؟ دیگه به این ابزار فکر نکن. گوگل از تو انتظار داره که مدیریت پارامترها رو در داخل خود سایتت (On-Site) انجام بدی. بهترین و مورد اعتمادترین روش‌ها همون دو موردی هستن که گفتیم: ۱. rel=”canonical” (برای هدایت اعتبار) ۲. meta robots=”noindex, follow” (برای جلوگیری از ایندکس و حفظ جریان خزش)

مدیریت محصولات متغیر (Variable Products) و جلوگیری از تکرار محتوا

محصولات متغیر (Variable Products) ستون فقرات اکثر فروشگاه‌های ووکامرسی هستن. فکر کن به یه تی‌شرت که ۵ تا رنگ و ۴ تا سایز مختلف داره، یا یه گوشی موبایل با ۳ تا حافظه داخلی متفاوت. اینا همون محصولات متغیر هستن.

این قابلیت برای «تجربه کاربری» (UX) عالیه، چون کاربر می‌تونه تو همون صفحه، گزینه دلخواهش رو انتخاب کنه. اما از دید سئو، اینجا یه تله‌ی بزرگ وجود داره. اگه سیستم فروشگاه‌ساز تو (مثل ووکامرس) برای هر کدوم از این ترکیب‌ها (مثلاً: تی‌شرت آبی، سایز L) یه URL جداگونه بسازه و گوگل هم همه اون‌ها رو ایندکس کنه، تو با یه فاجعه‌ی «محتوای تکراری» (Duplicate Content) مواجه می‌شی.

بیا با هم ببینیم چطور باید این وضعیت رو هوشمندانه مدیریت کنیم.

چرا هر متغیر (رنگ، سایز) نباید یک URL مجزا و قابل ایندکس داشته باشد؟

جواب کوتاه و ساده‌اش اینه: چون «قصد کاربر» (User Intent) برای همه اون‌ها یکسانه.

کسی که دنبال «تی‌شرت نخی مدل Y رنگ آبی» می‌گرده، با کسی که «تی‌شرت نخی مدل Y رنگ قرمز» رو می‌خواد، در نهایت دنبال یک محصول هستن: «تی‌شرت نخی مدل Y».

وقتی تو به گوگل اجازه می‌دی برای هر متغیر یه URL جداگانه ایندکس کنه، این اتفاق‌های بد میفته:

  1. تقسیم اعتبار (Link Equity Dilution): این بدترین بخش ماجراست. فرض کن ۱۰ نفر به «تی‌شرت آبی» لینک می‌دن و ۵ نفر به «تی‌شرت قرمز». به جای اینکه صفحه اصلی محصول تو ۱۵ تا اعتبار لینک بگیره، تو دو تا صفحه ضعیف (یکی با ۱۰ اعتبار و یکی با ۵) داری که هیچکدوم قدرت کافی برای رقابت ندارن.
  2. هم‌نوع‌خواری (Keyword Cannibalization): گوگل گیج می‌شه. وقتی یه نفر جستجو می‌کنه «خرید تی‌شرت مدل Y»، گوگل نمی‌دونه باید کدوم نسخه رو نشون بده؟ صفحه اصلی؟ صفحه آبی؟ صفحه قرمز؟ در نتیجه، صفحات سایت خودت شروع می‌کنن به رقابت با هم و رتبه‌ات نوسان می‌کنه یا اصلاً بالا نمیاد.
  3. هدر رفتن بودجه خزش (Crawl Budget): گوگل‌بات به جای اینکه بره محصولات جدید و مهم تو رو پیدا کنه، وقتش رو صرف خزیدن توی ۱۰ تا URL مختلف برای یک محصول می‌کنه.

قانون طلایی اینه: تا جایی که می‌شه، برای یک محصول، باید یک URL قابل ایندکس داشته باشیم.

اطمینان از تنظیم صحیح rel=”canonical” در محصولات متغیر به سمت URL اصلی محصول

این دقیقاً راه‌حل استاندارد و اصولی برای مشکلیه که تو H3 قبلی گفتیم. تگ rel=”canonical” (تگ استاندارد) بهترین دوست تو در این سناریوست.

چطور کار می‌کنه؟ وقتی کاربر توی صفحه محصول، مثلاً رنگ «آبی» رو انتخاب می‌کنه، ممکنه URL یه پارامتری بگیره (مثلاً: example.com/t-shirt/?attribute_color=blue).

کاری که ما باید بکنیم (و خوشبختانه ووکامرس و افزونه‌های سئوی خوب مثل رنک مث و یواست معمولاً به‌طور خودکار انجام می‌دن) اینه که به گوگل بگیم: «هی گوگل! این URL که پارامتر داره (?attribute_color=blue) فقط یه نسخه نمایشی از صفحه اصلیه. نسخه استاندارد، اصلی و مهمی که باید ایندکس کنی و تمام اعتبار رو بهش بدی، اینه: example.com/t-shirt/»

ما این پیام رو با قرار دادن تگ زیر در <head> اون صفحه به گوگل می‌دیم: <link rel=”canonical” href=”https://example.com/t-shirt/” />

چطور چک کنی که این تنظیم درسته؟ خیلی ساده‌ است. برو به یکی از محصولات متغیر سایتت. یه رنگ یا سایز رو انتخاب کن. اگه URL تغییر کرد (چه با پارامتر ? و چه با یه بخش جدید در URL)، همون لحظه کلیک راست کن و «View Page Source» (یا Inspect) رو بزن. در قسمت <head> دنبال تگ rel=”canonical” بگرد. مطمئن شو که آدرس (href) داخل این تگ، همون آدرس تمیز و اصلی محصول (بدون هیچ پارامتری) هست.

چه زمانی باید برای یک متغیر، صفحه جداگانه (و قابل ایندکس) داشته باشیم؟ (مثال: آیفون با رنگ‌های مختلف)

این یه سوال فوق‌العاده تخصصی و مهمه که تفاوت بین یه سئوکار خوب و یه سئوکار عالی رو مشخص می‌کنه.

قانون کلی (یک محصول = یک URL) یه استثنای خیلی مهم داره: زمانی که «قصد جستجوی کاربر» (User Intent) برای اون متغیر به قدری قوی، مشخص و پرتکرار باشه که اون متغیر، عملاً هویت یه «محصول جداگانه» رو پیدا کنه.

بهترین مثالش همون آیفون هست.

  • سناریوی تی‌شرت: تقریباً هیچ‌کس در گوگل جستجو نمی‌کنه «خرید تی‌شرت نخی مدل Y آبی». کاربر «تی‌شرت نخی مدل Y» رو جستجو می‌کنه، وارد صفحه می‌شه و بعد رنگ دلخواهش رو انتخاب می‌کنه. اینجا «رنگ» یه گزینه انتخابیه.
  • سناریوی آیفون: مردم دقیقاً جستجو می‌کنن «خرید آیفون ۱۵ پرومکس تیتانیوم آبی» یا «گلکسی S24 اولترا بنفش». در اینجا «رنگ» یا «حافظه داخلی» فقط یه گزینه نیست، بلکه بخشی از هویت اصلی محصول و عبارت کلیدی اصلی کاربره.

در این سناریوی خاص (مثل آیفون)، تو باید برای هر متغیر پرجستجو، یک صفحه جداگانه، قابل ایندکس و بهینه شده داشته باشی.

چرا؟

  1. هدف‌گیری دقیق کلمه کلیدی: تو می‌تونی صفحه «آیفون تیتانیوم آبی» رو دقیقاً برای همین عبارت بهینه کنی (در تایتل، توضیحات، H1 و…).
  2. بهینه‌سازی تجربه کاربری (CRO): کاربر مستقیماً وارد صفحه‌ای می‌شه که گالری تصاویر، توضیحات و شاید حتی ویدیوی محصول فقط مربوط به رنگ آبیه. این تجربه کاربری خیلی بهتریه تا اینکه وارد یه صفحه عمومی بشه و تازه مجبور باشه دنبال رنگ آبی بگرده.
  3. محتوای منحصربه‌فرد: این صفحات دیگه تکراری نیستن. گالری تصاویرشون متفاوته، شاید بخش‌هایی از توضیحاتشون هم متفاوت باشه.

چطور پیاده‌سازی می‌شه؟ در این حالت، تو عملاً اون متغیرها رو به عنوان «محصولات مجزا» (Simple Product) در ووکامرس تعریف می‌کنی، نه «محصول متغیر» (Variable Product). هر کدوم URL خودشون رو دارن و تگ کنونیکال هر صفحه هم دقیقاً به خودش اشاره می‌کنه (Self-Referencing Canonical).

سایر منابع رایج محتوای تکراری در فروشگاه‌های ووکامرس

اگه فقط فیلترها و محصولات متغیر رو مدیریت کنی، نصف راه رو رفتی. اما محتوای تکراری می‌تونه از جاهایی سر در بیاره که اصلاً فکرش رو هم نمی‌کنی. بیا این منابع رایج رو با هم بررسی و حل کنیم.

مدیریت صحیح صفحه‌بندی (Pagination) با تگ‌های rel=”prev/next” (و اهمیت canonical)

صفحه‌بندی (Pagination) یعنی همون شماره صفحات (/page/2/, /page/3/ و…) که در انتهای صفحات دسته‌بندی محصولاتت ظاهر می‌شه. این‌ها ذاتاً محتوای تکراری نیستن (چون محصولات متفاوتی رو نشون می‌دن)، اما می‌تونن باعث ایجاد سیگنال‌های تکراری بشن (چون عنوان سئو، متادیسکریپشن و H1 همشون معمولاً یکسانه).

۱. داستان rel=”prev/next”: در گذشته، ما از تگ‌های rel=”prev” (قبلی) و rel=”next” (بعدی) در <head> صفحات استفاده می‌کردیم تا به گوگل بگیم این صفحات به هم مرتبط و دنباله‌دار هستن. اما حواست باشه: گوگل در سال ۲۰۱۹ رسماً اعلام کرد که دیگه از این تگ‌ها پشتیبانی نمی‌کنه. پس اگه توی سایتت داری ازشون استفاده می‌کنی، بدون که ضرری ندارن، اما فایده‌ای هم ندارن.

۲. راه‌حل مدرن و حیاتی: rel=”canonical” اینجا جاییه که خیلی‌ها اشتباه فاجعه‌باری می‌کنن. اشتباه مرگبار: بعضی‌ها تگ کنونیکال تمام صفحات صفحه‌بندی (صفحه ۲، ۳، ۴ و…) رو به صفحه اول (صفحه ۱) دسته‌بندی ارجاع می‌دن. این کار یعنی نابودی! تو با این کار داری به گوگل می‌گی: «تمام محصولات من در صفحات ۲ به بعد رو نادیده بگیر و ایندکس نکن!»

راه‌حل صحیح (Self-Referencing Canonical): هر صفحه صفحه‌بندی باید یک تگ کنونیکال داشته باشه که دقیقاً به خودش اشاره می‌کنه.

  • صفحه …/category/page/2/ باید کنونیکال به …/category/page/2/ داشته باشه.
  • صفحه …/category/page/3/ باید کنونیکال به …/category/page/3/ داشته باشه.

این کار به گوگل می‌گه که هر صفحه، یه صفحه‌ی منحصربه‌فرد و قابل ایندکسه و باید لینک‌های داخلش (محصولات) رو بخزه. افزونه‌های سئوی خوب (مثل رنک مث) معمولاً این کار رو به‌طور خودکار برات انجام می‌دن، به شرطی که تنظیماتشون رو اشتباهی دستکاری نکرده باشی.

کنترل URLهای ناشی از مرتب‌سازی (Sort by price, Sort by popularity)

این مورد خیلی شبیه به فیلترهاست. وقتی کاربر محصولات رو بر اساس «محبوبیت»، «ارزان‌ترین» یا «جدیدترین» مرتب می‌کنه، معمولاً یه پارامتر به URL اضافه می‌شه (مثلاً: ?orderby=price یا ?orderby=popularity).

مشکل کجاست؟ محتوای صفحه دقیقاً همونه (همون محصولات)، فقط ترتیب نمایششون عوض شده. این از دید گوگل تعریف دقیق محتوای تکراریه.

راه‌حل چیست؟ اینجا راه‌حل خیلی ساده است و دقیقاً همون راه‌حل فیلترهاست: استفاده از rel=”canonical”. تمام این URLهای ناشی از مرتب‌سازی، باید یک تگ کنونیکال داشته باشن که به URL اصلی و «تمیز» (Clean URL) همون دسته‌بندی (بدون هیچ پارامتری) اشاره می‌کنه.

مثال:

  • URL مرتب‌سازی: com/t-shirts/?orderby=price
  • باید کنونیکال بشه به: com/t-shirts/

این کار تمام اعتبار و «آب لینک» (Link Juice) رو به جای پخش شدن بین چندین URL، روی صفحه اصلی دسته‌بندی تو متمرکز می‌کنه.

استفاده نادرست از برچسب‌ها (Tags) و دسته‌بندی‌ها (Categories)

این یکی از بزرگ‌ترین اشتباهات استراتژیک در سئوی محتوایی ووکامرسه.

  • دسته‌بندی‌ها (Categories): باید ستون‌های اصلی سایتت باشن. مثل «پوشاک مردانه»، «کفش»، «لوازم جانبی». این‌ها ساختار سلسله‌مراتبی دارن و برای رتبه‌بندی روی کلمات کلیدی اصلی و پررقابت ساخته می‌شن.
  • برچسب‌ها (Tags): باید برای گروه‌بندی‌های مقطعی و غیررسمی باشن. مثلاً «چرم»، «آبی»، «بهاره»، «برند نایک».

مشکلات رایج:

  1. همپوشانی کامل: تو یه دسته‌بندی به اسم «کفش ورزشی» داری و همزمان یه برچسب به اسم «کفش ورزشی» هم می‌سازی. این یعنی دو صفحه آرشیو کاملاً یکسان با دو URL مختلف ساختی که دارن برای یک کلمه کلیدی با هم رقابت می‌کنن (Keyword Cannibalization).
  2. ایجاد برچسب‌های یتیم: برای هر محصول یه برچسب منحصربه‌فرد می‌زنی (مثلاً برچسب «مدل X-123»). این برچسب فقط به یک محصول لینک شده. نتیجه‌اش می‌شه ایجاد هزاران صفحه آرشیو برچسب که فقط یه محصول دارن و از دید گوگل «محتوای ضعیف» (Thin Content) محسوب می‌شن.

راه‌حل تخصصی من: به عنوان یه قانون کلی، صفحات دسته‌بندی رو برای ایندکس شدن و رتبه گرفتن بهینه کن. اما صفحات آرشیو برچسب‌ها (Tag Archives) رو noindex, follow کن. چرا؟ چون برچسب‌ها برای کمک به ناوبری داخلی کاربر عالی هستن، نه برای رتبه گرفتن در گوگل. (مگر اینکه استراتژی خیلی خاص و پیشرفته‌ای برای صفحات برچسبت داشته باشی که در ۹۹٪ مواقع لازم نیست). می‌تونی این کار رو به سادگی از تنظیمات سراسری افزونه سئوت (یواست یا رنک مث) انجام بدی.

محتوای تکراری ناشی از URLهای ?add-to-cart و پارامترهای کمپین (UTM)

و در آخر، می‌رسیم به پارامترهای فنی که اصلاً نباید باعث نگرانی بشن، اما گاهی می‌شن.

  1. پارامترهای ?add-to-cart=PRODUCT_ID: بعضی لینک‌ها (مثلاً در کمپین‌های ایمیلی) ممکنه طوری ساخته بشن که کاربر رو مستقیم به صفحه‌ای ببرن که محصول به سبد خریدش اضافه شده. این URLها همون محتوای صفحه اصلی محصول رو دارن.
  2. پارامترهای کمپین (UTM): تو برای ردیابی کمپین‌های تبلیغاتی گوگل ادز، ایمیل مارکتینگ یا شبکه‌های اجتماعی از پارامترهای UTM استفاده می‌کنی (مثلاً: ?utm_source=google&utm_medium=cpc). محتوای این صفحات ۱۰۰٪ با صفحه اصلی یکسانه.

راه‌حل برای هر دو مورد: باز هم، rel=”canonical” به نجات ما میاد. خوشبختانه، هم ووکامرس و هم افزونه‌های سئو به طور خودکار می‌دونن که این پارامترها نباید باعث ایجاد محتوای تکراری بشن. اون‌ها به صورت اتوماتیک یه تگ کنونیکال به URL اصلی (بدون این پارامترها) اضافه می‌کنن.

  • URL کمپین: com/product-a/?utm_source=google
  • کنونیکال به: com/product-a/

گوگل هم اونقدر هوشمند هست که پارامترهای UTM رو نادیده بگیره. اما کار از محکم‌کاری عیب نمی‌کنه. همیشه با ابزار «View Page Source» چک کن که تگ کنونیکال روی این صفحات به درستی به نسخه تمیز و اصلی اشاره داشته باشه.

بهترین استراتژی ترکیبی (E-E-A-T) برای حل دائمی مشکل

همونطور که گفتم، هدف ما فقط رفع خطا نیست؛ هدف ما ساختن «اعتبار» (Authority) و «اعتماد» (Trust) هست. یه سایت تمیز و بهینه که می‌دونه کدوم صفحه‌اش باارزشه و کدوم نه، از دید گوگل یه سایت قابل اعتماده. این استراتژی ۴ مرحله‌ای بهت کمک می‌کنه دقیقاً به همین نقطه برسی.

گام اول: ممیزی و شناسایی (Audit) صفحات تکراری

قبل از هر درمانی، باید دقیقاً بدونیم «بیماری» چیه و کجاست. تو باید مثل یه کارآگاه، تمام الگوهای محتوای تکراری سایتت رو پیدا کنی.

  1. برو سراغ سرچ کنسول: این بهترین دوست توئه چون نشون می‌ده گوگل دقیقاً چی دیده. به گزارش Pages (صفحه‌ها) برو و دنبال این وضعیت‌ها بگرد:
    • Duplicate without user-selected canonical (تکراری، کاربر نسخه اصلی رو انتخاب نکرده)
    • Duplicate, Google chose different canonical than user (تکراری، گوگل یه نسخه دیگه رو اصلی دونسته)
    • Crawled – currently not indexed (خزیده شده – ایندکس نشده) – خیلی از صفحات فیلتر و پارامترهای بی‌ارزش اینجا جمع می‌شن.
  2. سایتت رو بخز (Crawl): از یه ابزار خزشگر مثل Screaming Frog (قورباغه جیغ‌جیغو!) یا Sitebulb استفاده کن. بعد از اتمام خزش:
    • برو به تب Content و ستون Duplicate رو چک کن. این ابزار مستقیماً صفحات با محتوای ۹۹٪ شبیه به هم رو بهت نشون می‌ده.
    • برو به تب URL و URLها رو فیلتر کن تا فقط اون‌هایی که علامت سوال (?) دارن رو ببینی. اینجوری تمام پارامترهای فیلتر، مرتب‌سازی و… رو یکجا می‌بینی.
  3. از خود گوگل استفاده کن: این دستورات جستجو رو در گوگل بزن:
    • site:example.com “اسم یکی از محصولاتت”: ببین آیا چند تا URL مختلف برای یک محصول میاد؟
    • site:example.com inurl:?filter: ببین آیا گوگل اصلاً صفحات فیلتر تو رو ایندکس کرده یا نه.

خروجی این گام: تو باید یه لیست کامل (مثلاً در اکسل) از الگوهای URL تکراری داشته باشی (مثلاً: همه URLهای ?orderby، همه URLهای ?filter_color و…).

گام دوم: انتخاب استراتژی (Canonical یا Noindex) بر اساس ارزش صفحه

این مهم‌ترین گام استراتژیک توئه. تو نباید با همه صفحات تکراری یه جور برخورد کنی. ما دو تا ابزار اصلی داریم:

استراتژی ۱: rel=”canonical” (ادغام اعتبار)

  • چیه؟ تگ کنونیکال مثل یه نامه اداری به گوگله که می‌گه: «این صفحه یه نسخه فرعیه. لطفاً تمام اعتبار و قدرت رتبه‌بندی (Link Juice) رو بفرست به این آدرس اصلی که می‌گم.»
  • کی استفاده کنیم؟ زمانی که صفحه تکراری ارزشی برای کاربر یا خزش گوگل داره.
    • مثال‌ها: URLهای مرتب‌سازی (?orderby=price)، URLهای صفحه‌بندی (/page/2/ که باید به خودش کنونیکال بشه)، یا فیلترهای ساده که ممکنه کاربرها لینکش رو جایی به اشتراک بذارن (مثلاً ?filter_color=blue).

استراتژی ۲: meta robots=”noindex, follow” (نادیده گرفتن هوشمندانه)

  • چیه؟ این یه دستور مستقیم به گوگله: «این صفحه رو به هیچ وجه در نتایج جستجو ایندکس نکن، اما لینک‌های داخلش رو دنبال کن (follow).»
  • کی استفاده کنیم؟ زمانی که صفحه هیچ ارزش سئویی نداره و فقط داره بودجه خزش تو رو هدر می‌ده.
    • مثال‌ها: ترکیب‌های پیچیده فیلتر (مثلاً رنگ آبی + سایز L + برند نایک)، صفحات داخلی جستجوی سایت (?s=query)، و در ۹۹٪ مواقع، آرشیو برچسب‌ها (Tags).

قانون طلایی: اگه صفحه می‌تونه برای کاربر مفید باشه یا اعتباری رو منتقل کنه، از Canonical استفاده کن. اگه صفحه فقط «نویز» فنی برای گوگله، از Noindex, follow استفاده کن.

گام سوم: پیاده‌سازی فنی (از طریق افزونه یا کد سفارشی در functions.php)

حالا که استراتژی رو چیدی، وقت اجراست.

  • راه ساده (تنظیمات افزونه):
    • خوشبختانه افزونه‌هایی مثل Rank Math یا Yoast SEO اکثر کارهای سخت رو انجام می‌دن. مثلاً کنونیکال‌های صفحه‌بندی یا پارامترهای UTM رو به طور خودکار مدیریت می‌کنن.
    • برای noindex کردن برچسب‌ها، کافیه بری توی تنظیمات افزونه، بخش «عناوین و متا» (Titles & Meta) -> «طبقه‌بندی‌ها» (Taxonomies) -> «برچسب‌ها» (Tags) و گزینه «نمایش در نتایج جستجو» رو خاموش کنی (که همون noindex می‌شه).
    • خیلی از افزونه‌های فیلتر پیشرفته ووکامرس هم تنظیمات سئوی داخلی برای noindex کردن یا کنونیکال زدن خودکار فیلترها دارن.
  • راه حرفه‌ای (کد سفارشی):
    • گاهی وقتا تو یه منطق پیچیده می‌خوای. مثلاً: «اگه بیشتر از ۲ تا فیلتر همزمان اعمال شد، اون صفحه رو noindex کن.»
    • اینجا باید از یه توسعه‌دهنده بخوای که با استفاده از فایل php (یا بهتر از اون، یه پلاگین سفارشی)، یه شرط (Condition) بنویسه که اگه URL شامل پارامترهای خاصی بود، تگ متا رباتس noindex رو به <head> صفحه اضافه کنه.
    • هشدار: این کار مثل جراحیه. یه اشتباه کوچیک توی کد می‌تونه کل سایتت رو noindex کنه. پس حتماً با احتیاط کامل و اول روی سایت تستی (Staging) انجامش بده.

گام چهارم: اعتبارسنجی و نظارت (Monitoring) مستمر در سرچ کنسول

کارت اینجا تموم نشده! حل کردن مشکل یه پروسه است، نه یه اتفاق یه شبه. تو باید مطمئن بشی که راه‌حل‌هات کار کرده و در آینده هم کار می‌کنن.

  1. اعتبارسنجی اصلاح (Validate Fix):
    • بعد از اینکه تغییرات رو اعمال کردی، برگرد به همون گزارش Pages در سرچ کنسول.
    • روی خطاهای تکراری (مثلاً Duplicate without user-selected canonical) کلیک کن.
    • دکمه “Validate Fix” رو بزن. این کار به گوگل می‌گه: «من مشکل رو حل کردم، لطفاً دوباره بیا و این URLها رو بررسی کن.»
  2. نظارت مستمر:
    • در هفته‌های بعد، حواست به این گزارش باشه. باید ببینی که تعداد صفحات دارای خطا (Error) کم می‌شه و به تعداد صفحات معتبر (Valid) یا مستثنی شده (Excluded) اضافه می‌شه.
  3. بازرسی دستی (URL Inspection):
    • هر چند وقت یه بار، یکی از اون URLهای مشکل‌دار (مثلاً یه URL فیلتر) رو بردار و توی ابزار URL Inspection سرچ کنسول وارد کن.
    • ببین گوگل چی می‌گه:
      • اگه noindex کردی، باید بگه “URL is not on Google” (به دلیل تگ noindex).
      • اگه canonical کردی، باید بگه “Page is not indexed: Duplicate without user-selected canonical” (یا مشابه) و در بخش “User-declared canonical” دقیقاً آدرس اصلی که تو تعیین کردی رو نشون بده.

این نظارت مستمر، بخش مهمی از اعتماد (T) در E-E-A-T هست. تو به گوگل نشون می‌دی که نه تنها مشکل رو حل کردی، بلکه حواست به سلامت فنی سایتت در طول زمان هم هست.

جمع‌بندی: سایتت رو تمیز کن تا گوگل بهت اعتماد کنه!

خب، تبریک می‌گم! تو الان یکی از پیچیده‌ترین و فنی‌ترین بخش‌های سئوی ووکامرس رو کامل یاد گرفتی.

یادت باشه، حل کردن مشکل محتوای تکراری فقط یه رفع خطای فنی نیست؛ این یه سیگنال مستقیم برای E-E-A-T (به خصوص اعتماد – Trust) هست.

وقتی تو با استفاده هوشمندانه از canonical و noindex به گوگل نشون می‌دی که برای وقت و منابعش ارزش قائلی و یه ساختار سایت تمیز و بدون آشفتگی داری، گوگل هم در مقابل به تو اعتماد می‌کنه. سایتی که قابل اعتماده، بودجه خزش بهتری می‌گیره، سریع‌تر ایندکس می‌شه و در نهایت، رتبه‌های بهتری کسب می‌کنه.

حالا نوبت توئه! همین الان برو و با ابزارهایی که گفتیم (مثل سرچ کنسول و اسکریمینگ فراگ) سایتت رو ممیزی (Audit) کن و این استراتژی‌ها رو قدم به قدم پیاده کن.

سوالات متداول (FAQ)

۱. آیا محتوای تکراری باعث جریمه (Penalty) گوگل می‌شود؟

معمولاً نه به معنای جریمه دستی (Manual Penalty)، مگر اینکه با نیت فریبکارانه (مثل کپی کردن محتوای سایت‌های دیگه) انجام بشه. اما محتوای تکراری داخلی (مثل فیلترها) باعث مشکلات جدی الگوریتمی می‌شه: هدر رفتن بودجه خزش، گیج شدن گوگل در انتخاب صفحه اصلی، تقسیم شدن اعتبار لینک‌ها و در نتیجه، افت شدید رتبه که دست‌کمی از جریمه نداره!

۲. تفاوت اصلی rel=”canonical” و meta robots=”noindex” چیست؟ کی از کدوم استفاده کنم؟

این دو تا ابزار کاملاً متفاوتن:

  • rel=”canonical”: مثل یه نامه اداریه. به گوگل می‌گی: «این صفحه (مثلاً صفحه فیلتر رنگ آبی) یه کپی از صفحه اصلی دسته‌بندیه. لطفاً این صفحه رو ایندکس نکن و تمام اعتبار و قدرتش رو به اون صفحه اصلی منتقل کن.» این برای ادغام اعتبار عالیه.
  • meta robots=”noindex, follow”: این یه دستور مستقیم و قاطعه. به گوگل می‌گی: «اصلاً و ابداً این صفحه رو در نتایج جستجو نیار، اما لینک‌های داخلش (لینک محصولات) رو دنبال کن.» این برای صفحاتیه که هیچ ارزش سئویی ندارن (مثل ترکیب ۳ تا فیلتر با هم) و فقط می‌خوای از شرشون خلاص بشی ولی نمی‌خوای خزش متوقف بشه.

۳. آیا باید همه صفحات برچسب (Tags) در ووکامرس را noindex کنم؟

در ۹۹٪ فروشگاه‌های اینترنتی، بله! برچسب‌ها معمولاً برای رتبه‌بندی ساخته نشدن، بلکه برای کمک به ناوبری داخلی کاربر استفاده می‌شن. مشکل اینجاست که صفحات آرشیو برچسب‌ها خیلی راحت با دسته‌بندی‌ها همپوشانی پیدا می‌کنن (مثلاً برچسب «کفش ورزشی» و دسته‌بندی «کفش ورزشی») و باعث هم‌نوع‌خواری می‌شن. بهترین کار اینه که از طریق افزونه سئوت (رنک مث یا یواست) به صورت سراسری صفحات آرشیو برچسب رو روی noindex, follow تنظیم کنی.

۴. افزونه‌های سئو مثل رنک مث (Rank Math) این مشکلات رو خودکار حل نمی‌کنن؟

اون‌ها بخشی از کار رو انجام می‌دن، اما همه‌اش رو نه. مثلاً رنک مث به طور خودکار پارامترهای UTM رو به نسخه اصلی کنونیکال می‌کنه که عالیه. اما این افزونه‌ها نمی‌تونن «استراتژی» فیلترهای تو رو حدس بزنن. تو هنوزم باید به صورت دستی تنظیم کنی که مثلاً آرشیو برچسب‌ها noindex بشن، یا تنظیمات افزونه فیلترت رو چک کنی. پس بهشون تکیه کن، اما بهشون اعتماد کامل نکن و همیشه خودت چک کن.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *