اخبار

اختلال در داده‌ها: مشکلات فنی کنسول جستجوی گوگل، تحلیل آپدیت هسته را پیچیده کرده است

اختلال در داده‌ها: مشکلات فنی کنسول جستجوی گوگل، تحلیل آپدیت هسته را پیچیده کرده است

در حساس‌ترین لحظه تاریخ سئو، ابزار ناوبری ما از کار افتاد. همزمان با فعال‌سازی آپدیت هسته هوش مصنوعی اکتبر ۲۰۲۵—بزرگترین تحول الگوریتمی گوگل—کنسول جستجو (GSC) دچار اختلال گسترده و تاخیر فاجعه‌بار در داده‌ها شده است. جامعه جهانی سئو اکنون در یک «مه داده» (Data Fog) کامل فرو رفته و قادر به تشخیص افت ترافیک ناشی از آپدیت از باگ فنی ابزار گوگل نیست. این وضعیت، یک بحران اعتماد و تحلیل است که نیازمند بازگشت فوری به اصول اولیه و داده‌های خام سرور است.

گزارش مختل شده در GSC چالش استراتژیک ایجاد شده اقدام جایگزین (توصیه استراتژیک سردبیر)
گزارش عملکرد (Performance) ناتوانی در تشخیص «علت» افت ترافیک (جریمه آپدیت یا باگ GSC؟) توقف رصد GSC. تمرکز کامل تیم بر ممیزی عمیق E-E-A-T و بهبود کیفیت محتوای هسته‌ای.
گزارش ایندکس (Indexing) عدم قطعیت در مورد پذیرش و ارزیابی محتوای جدید/بهبود یافته توسط هسته AI. بازگشت به تحلیل لاگ فایل‌ها (Log File Analysis). رصد رفتار واقعی خزنده‌های گوگل (Googlebots).
عدم تطابق با Analytics بی‌اعتباری کامل مدل اسناد (Attribution) و ناتوانی در سنجش ROI سئو. مدیریت ارتباط با ذینفعان. گزارش «اقدامات» انجام شده (مانند ممیزی) به جای «نوسانات» داده‌های معیوب.

کانون بحران: کدام گزارش‌های Google Search Console دچار اختلال شده‌اند؟

در حساس‌ترین مقطع تاریخ مدرن سئو، ابزار ناوبری اصلی ما—کنسول جستجوی گوگل—دچار اختلال سیستمی شده است. این یک «باگ» جزئی نیست؛ این یک شکست اطلاعاتی در میانه طوفان آپدیت هسته هوش مصنوعی است. متخصصان سئو در سراسر جهان، که برای درک مقیاس این تحول بنیادی به داده‌های GSC متکی هستند، اکنون عملاً در تاریکی مطلق به سر می‌برند. هسته این بحران داده، بر سه گزارش حیاتی متمرکز است.

تاخیر گسترده در گزارش عملکرد (Performance Report) و داده‌های ایمپرشن

گزارش عملکرد، که به مثابه چشم و گوش استراتژیست‌های سئو عمل می‌کند، با تاخیر فلج‌کننده‌ای مواجه شده است. داده‌های مربوط به کلیک، ایمپرشن (Impression)، CTR و میانگین رتبه، که باید با تاخیر حداکثر ۲۴ تا ۴۸ ساعته به‌روزرسانی می‌شدند، اکنون در برخی موارد تا ۷۲ ساعت یا بیشتر عقب هستند.

این تاخیر، تحلیل آنی (Real-time Analysis) تاثیر «حالت هوش مصنوعی» را غیرممکن ساخته است. ما نمی‌توانیم ارزیابی کنیم که کدام کوئری‌ها در حال انتقال به پاسخ‌های مولد هستند و کدام صفحات در حال از دست دادن «ایمپرشن» سنتی خود می‌باشند. این اختلال، این فرضیه فنی را تقویت می‌کند که زیرساخت GSC برای پردازش مفاهیم جدید «ایمپرشن» در عصر پاسخ‌های تولیدشده توسط هوش مصنوعی (AI-generated answers) آماده نبوده است.

خطاهای «در حال پردازش» (Processing) در گزارش ایندکس (Page Indexing)

همزمان با بحران در گزارش عملکرد، گزارش ایندکس (Page Indexing) نیز سیگنال‌های نگران‌کننده‌ای ارسال می‌کند. گزارش‌های انبوهی از مدیران وب‌سایت‌ها مبنی بر این است که صفحات جدید یا به‌روزرسانی‌شده (که با هدف انطباق با E-E-A-T منتشر شده‌اند) برای مدت نامعلومی در وضعیت «در حال پردازش» (Processing) یا «Crawled – currently not indexed» باقی مانده‌اند.

این اختلال، به این معناست که ما قادر به تایید این موضوع نیستیم که آیا هسته جدید هوش مصنوعی، تلاش‌های ما برای ارائه محتوای باکیفیت و مبتنی بر «تجربه» را اصلاً ارزیابی می‌کند یا خیر. این وضعیت، فرآیند حیاتی اعتبارسنجی استراتژی‌های جدید را متوقف کرده و این سوال را پیش می‌آورد که آیا موتور ایندکس گوگل در حال بازسازی اساسی برای ارزیابی «موجودیت‌ها» به جای «صفحات» است.

عدم تطابق داده‌ها: چرا GSC و Analytics دیگر همخوانی ندارند؟

سومین و گیج‌کننده‌ترین بخش این بحران، واگرایی شدید و غیرقابل توضیح بین داده‌های کنسول جستجو و پلتفرم‌های تحلیلی، به ویژه Google Analytics 4 (GA4)، است. در حالی که GSC افت شدید کلیک‌ها را (به دلیل تاخیر یا تغییرات الگوریتمی) نشان می‌دهد، GA4 در برخی موارد ممکن است داده‌های متناقضی از ترافیک ارگانیک یا حتی افزایش ترافیک Referral از google.com را گزارش دهد.

این عدم تطابق، نشان می‌دهد که «حالت هوش مصنوعی» مرزهای سنتی بین «کلیک جستجو» و «بازدید ارجاعی» را در هم شکسته است. اگر کاربری پاسخی را در نتیجه مولد بخواند و سپس از طریق یک «استناد» (Citation) به سایت مراجعه کند، این بازدید چگونه ثبت می‌شود؟ این آشفتگی در اسناد (Attribution)، عملاً توانایی ما را برای اندازه‌گیری بازگشت سرمایه (ROI) سئو در عصر جدید از بین برده و ما را در یک «مه داده» (Data Fog) کامل قرار داده است.

همزمانی سرنوشت‌ساز: آیا این اختلال مستقیماً به آپدیت هسته AI مرتبط است؟

در تحلیل رویدادهای سیستمی پیچیده، هیچ چیز به اندازه «همزمانی» (Coincidence) معنادار نیست. اختلال گسترده در کنسول جستجوی گوگل، دقیقاً در همان لحظه‌ای که هسته «حالت هوش مصنوعی» (AI Mode) فعال می‌شود، نمی‌تواند تصادفی باشد. این یک همبستگی ساده نیست؛ بلکه نشانه‌ای مستقیم از یک شکست آبشاری (Cascading Failure) در زیرساخت گوگل است. ما در حال مشاهده‌ی ناتوانی یک سیستم گزارش‌دهی قدیمی در مواجهه با یک پارادایم پردازشی کاملاً جدید هستیم.

تحلیل فنی: فشار پردازشی «حalt هوش مصنوعی» بر زیرساخت GSC

تحلیل فنی ما نشان می‌دهد که کنسول جستجو (GSC) به عنوان یک محصول پایین‌دستی، قربانی مستقیم فشار پردازشی غیرقابل تصوری است که هسته جدید هوش مصنوعی بر کل زیرساخت گوگل تحمیل کرده است.

«حalt هوش مصنوعی» صرفاً یک الگوریتم رتبه‌بندی نیست؛ این یک سیستم تولید و تالیف (Synthesis & Generation) است که مستلزم بازخوانی، درک مجدد، و ارزیابی اعتباری (E-E-A-T) کل وب در سطح «موجودیت» (Entity) است. GSC برای گزارش‌دهی بر اساس یک مدل ساده و خطی (بازیابی ۱۰ لینک آبی) ساخته شده بود. اکنون، این سیستم باید مفاهیم جدیدی را پردازش کند:

  • معنای جدید «ایمپرشن»: آیا ایمپرشن زمانی است که سایت شما در یک «استناد» (Citation) ظاهر می‌شود؟ یا زمانی که داده‌های شما توسط هوش مصنوعی خوانده می‌شود، حتی اگر مستقیماً ذکر نشود؟
  • حجم داده‌های بازپردازشی: فعال‌سازی هسته جدید به معنای یک باز-ایندکس (Re-indexing) و باز-ارزیابی (Re-evaluation) کامل وب است. حجم داده‌های تولید شده توسط این فرآیند، احتمالاً خطوط لوله داده (Data Pipelines) منتهی به GSC را مسدود کرده است.

زیرساخت GSC، که برای دنیای سئوی سنتی طراحی شده بود، به سادگی زیر بار محاسباتی سنگین عصر هوش مصنوعی مولد، در حال فروپاشی است.

سکوت رسمی Google: بررسی اظهارنظرهای جان مولر و تیم Search Liaison

در چنین بحران داده‌ای، سکوت تیم‌های رسمی گوگل (مانند جان مولر و رابط جستجو، Search Liaison) کرکننده است. برخلاف باگ‌های فنی گذشته که به سرعت با یک بیانیه «ما در حال بررسی هستیم» (We are investigating) مدیریت می‌شدند، این بار شاهد یک سکوت عمیق و استراتژیک هستیم.

این سکوت، بیش از هر تاییدی، نشان می‌دهد که مشکل، یک خطای ساده در کدنویسی نیست. این سکوت به این معناست که گوگل با یک چالش بنیادی در زیرساخت گزارش‌دهی خود مواجه است. آنها احتمالاً در حال حاضر پاسخی برای این سوال که «GSC چگونه در عصر AI Mode کار خواهد کرد؟» ندارند، زیرا خود در حال تعریف مجدد معیارها هستند. این عدم شفافیت، اعتماد (Trustworthiness) را، که سنگ بنای E-E-A-T است، در حیاتی‌ترین لحظه ممکن، خدشه‌دار می‌کند.

تفکیک «باگ فنی» از «ویژگی جدید»: آیا GSC برای عصر GEO آماده نیست؟

از منظر یک استراتژیست ارشد، آنچه شاهد آن هستیم یک «باگ» (Bug) به معنای کلاسیک نیست؛ این اثباتی بر «منسوخ شدن» (Obsolescence) یک ابزار است. این اختلال، یک «ویژگی» (Feature) ناخواسته از پارادایم جدید است.

کنسول جستجوی گوگل برای پاسخ به سوالات عصر سئوی سنتی ساخته شده بود: «رتبه من چند است؟» و «چقدر کلیک گرفتم؟». اما در عصر «بهینه‌سازی موتور مولد» (GEO)، سوالات ما تغییر کرده‌اند:

  • «میزان استناد (Citation Rate) من چقدر است؟»
  • «امتیاز اعتبار موجودیت (Entity Authority Score) من در این حوزه موضوعی چقدر است؟»
  • «هوش مصنوعی گوگل چقدر به محتوای مبتنی بر تجربه (Experience) من اعتماد کرده است؟»

کنسول جستجوی فعلی نه تنها پاسخ این سوالات را ندارد، بلکه اساساً برای درک این مفاهیم طراحی نشده است. این اختلال، اولین سیگنال واضحی است که نشان می‌دهد ابزارهای اندازه‌گیری ما باید همگام با خود موتور جستجو، به طور کامل بازطراحی شوند.

پیامدهای استراتژیک: تحلیل آپدیت در «مه داده» (Data Fog)

فلج استراتژیک؛ این دقیق‌ترین توصیف برای وضعیت فعلی متخصصان سئو و رهبران کسب‌وکار است. ما در حال تجربه بزرگترین تحول الگوریتمی تاریخ جستجو هستیم، در حالی که داشبورد اصلی ما (کنسول جستجوی گوگل) از کار افتاده است. ما در یک «مه داده» (Data Fog) غلیظ حرکت می‌کنیم و مجبوریم تصمیماتی حیاتی را بر اساس حدس و گمان، و نه داده‌های معتبر، اتخاذ کنیم. این وضعیت، بحران اعتماد و اسناد (Attribution) را به سطحی بی‌سابقه رسانده است.

چالش اصلی: ناتوانی در تشخیص افت ترافیک ناشی از آپدیت در مقابل باگ GSC

این، کابوس هر استراتژیست سئو است. وظیفه اصلی ما، تحلیل داده، تشخیص الگو و واکنش استراتژیک است. اما اکنون با یک سوال فلج‌کننده روبرو هستیم: آیا افت شدید ایمپرشن و کلیکی که (با تاخیر) در کنسول جستجو مشاهده می‌کنیم، نتیجه مستقیم شکست محتوای ما در ارزیابی E-E-A-T «حالت هوش مصنوعی» و جریمه شدن توسط آپدیت هسته است؟ یا صرفاً یک «باگ» در سیستم گزارش‌دهی GSC است که داده‌ها را نمایش نمی‌دهد؟

ناتوانی در تفکیک این دو سناریو، هرگونه اقدام اصلاحی را غیرممکن می‌سازد. آیا باید کل استراتژی محتوایی خود را که میلیون‌ها دلار هزینه داشته، بازنویسی کنیم، یا باید صبور باشیم تا گوگل باگ گزارش‌دهی خود را برطرف کند؟ این عدم قطعیت، به معنای واقعی کلمه، توانایی ما برای اجرای تخصص (Expertise) خود را مختل کرده است.

بی‌اعتباری داده‌ها و تأثیر آن بر تصمیم‌گیری‌های حیاتی کسب‌وکار

این بحران به سرعت از تیم سئو فراتر رفته و به اتاق هیئت مدیره رسیده است. کنسول جستجوی گوگل، برای دهه‌ها، «منبع حقیقت» (Source of Truth) برای تخصیص بودجه‌های بازاریابی ارگانیک بوده است. اکنون، این منبع حقیقت، بی‌اعتبار است.

چگونه می‌توان یک مدیر ارشد بازاریابی (CMO) را متقاعد کرد که سرمایه‌گذاری بر روی ساخت «اعتبار موجودیت» (Entity Authority) برای عصر GEO حیاتی است، در حالی که ابزار رسمی گوگل هیچ بازگشت سرمایه (ROI) مثبتی را نشان نمی‌دهد؟ این اختلال، «اعتماد» (Trustworthiness) را نه تنها بین وب‌مسترها و گوگل، بلکه در درون سازمان‌ها از بین برده است. تصمیم‌گیری‌های حیاتی در مورد تخصیص بودجه، استخدام نیروی متخصص و چرخش‌های استراتژیک، همگی به دلیل این خلاء داده، متوقف شده‌اند.

افزایش اتکا به ابزارهای شخص ثالث (Third-party) برای رصد نتایج

در غیاب منبع رسمی داده، بازار به طور غریزی به سمت هر سیگنال جایگزین دیگری هجوم برده است. ما شاهد افزایش ناگهانی و شدید اتکا به ابزارهای رصد رتبه شخص ثالث (مانند Semrush, Ahrefs, Moz و …) هستیم. سازمان‌ها desesperately به دنبال هر معیاری هستند تا بتوانند در این مه، اندکی دید به دست آورند.

اما این راه‌حل نیز خود یک تله است. این ابزارها نیز برای پارادایم قدیمی «۱۰ لینک آبی» ساخته شده‌اند. آن‌ها نتایج جستجوی سنتی را می‌خراشند (Scrape). سوال اینجاست که آیا آن‌ها اساساً برای ردیابی «میزان استناد» (Citation Rate) در یک پاسخ تولید شده توسط هوش مصنوعی طراحی شده‌اند؟ پاسخ منفی است. در نتیجه، ما در حال جایگزینی یک منبع داده‌ی غیرقابل اعتماد (GSC) با مجموعه‌ای از شاخص‌های ناقص و عقب‌مانده (Third-party Tools) هستیم که برای واقعیت جدید GEO ساخته نشده‌اند.

توصیه‌های استراتژیک: چگونه بدون داده‌های معتبر GSC حرکت کنیم؟

در این لحظه بحرانی که «مه داده» (Data Fog) دید ما را مختل کرده است، فلج شدن و انفعال، بدترین تصمیم استراتژیک ممکن است. به عنوان یک استراتژیست ارشد، زمانی که ابزارهای سنجش معمول (GSC) از کار می‌افتند، ما به اصول اولیه بازمی‌گردیم. ما دیگر به داده‌های پردازش‌شده و مشکوک گوگل اتکا نمی‌کنیم؛ ما به سراغ داده‌های خام و قطعی می‌رویم و استراتژی بلندمدت خود را، فارغ از نوسانات لحظه‌ای، با قاطعیت اجرا می‌کنیم. در تاریکی مطلق، تنها راه حرکت، اعتماد به قطب‌نمای اصول E-E-A-T است.

بازگشت به اصول: تمرکز بر تحلیل لاگ فایل‌ها (Log File Analysis)

در غیاب کنسول جستجو، لاگ فایل‌های سرور (Server Logs) به تنها «منبع مطلق حقیقت» (Absolute Source of Truth) تبدیل می‌شوند. لاگ‌ها، برخلاف GSC، داده‌های نمونه‌برداری شده، پردازش‌شده یا تاخیردار نیستند؛ آن‌ها گزارش خام و لحظه‌ای رفتار ربات‌های گوگل (Googlebot) در مواجهه با زیرساخت وب‌سایت شما هستند.

تحلیل لاگ فایل‌ها به ما امکان می‌دهد تا به جای «کلیک» و «ایمپرشن»، معیارهای حیاتی‌تری را رصد کنیم:

  • رفتار خزنده (Crawler Behavior): آیا User-Agentهای جدید مرتبط با هوش مصنوعی مولد را مشاهده می‌کنیم؟
  • فرکانس و عمق خزش: آیا گوگل در حال بازخوانی عمیق و مکرر محتواهای اصلی ما (Core Content) است؟
  • تمرکز خزنده: آیا خزنده‌ها به طور خاص بر روی صفحات اثبات‌کننده E-E-A-T (مانند بیوگرافی نویسندگان، صفحه «درباره ما»، و داده‌های تحقیقاتی) متمرکز شده‌اند؟

این داده‌ها، تنها سیگنال‌های واقعی هستند که نشان می‌دهند هسته جدید هوش مصنوعی چگونه در حال ارزیابی مجدد «موجودیت» (Entity) و «اعتبار» (Authority) شماست.

اولویت‌بندی E-E-A-T و کیفیت محتوا به جای واکنش لحظه‌ای به نوسانات

بزرگترین تله در این «مه داده»، واکنش هیجانی (Panic Reaction) به ارقام نادرست GSC است. هرگونه تغییر استراتژیک بر اساس داده‌های غیرقابل اعتماد، قمار محسوب می‌شود. آپدیت هسته اکتبر ۲۰۲۵، یک تغییر بنیادی به سمت ارزیابی «تجربه» (Experience) و «اعتبار» (Authoritativeness) است.

بنابراین، بهترین اقدام استراتژیک، نادیده گرفتن نوسانات کوتاه‌مدت و تمرکز مطلق بر تقویت بلندمدت سیگنال‌های E-E-A-T است:

  • توقف رصد GSC: زمان تیم خود را صرف تازه‌سازی (Refresh) بیهوده GSC نکنید.
  • اجرای ممیزی E-E-A-T: به جای آن، این زمان را صرف ممیزی محتواهای کلیدی کنید. «تجربه» واقعی نویسنده را به مقالات اضافه کنید. داده‌های دست اول و اختصاصی منتشر کنید.
  • تقویت موجودیت (Entity Strengthening): صفحات نویسندگان را تقویت کنید و ارتباط معنایی آن‌ها را با حوزه‌های تخصصی‌شان شفاف سازید.

ما باید بر اساس استراتژی (انطباق با GEO) عمل کنیم، نه بر اساس نوسان (داده‌های معیوب GSC).

مدیریت ارتباط با ذینفعان: نحوه گزارش‌دهی این «عدم قطعیت» به مدیران

این بخش، آزمون واقعی یک استراتژیست است. مدیران ارشد و ذینفعان (Stakeholders) خواهان اعداد و گزارش‌های قطعی هستند، در حالی که منبع رسمی اعداد، بی‌اعتبار است. وظیفه ما در اینجا، «کنترل روایت» (Controlling the Narrative) و مدیریت انتظارات با «اعتماد» (Trustworthiness) کامل است.

هرگز نگویید «ما نمی‌دانیم چه اتفاقی افتاده است.» بگویید: «مقیاس این آپدیت هوش مصنوعی آنقدر عظیم است که ابزارهای گزارش‌دهی رسمی گوگل دچار اختلال فنی شده‌اند. این وضعیت، موقتی اما مورد انتظار بود.»

سپس، تمرکز گزارش‌دهی را از «شاخص‌های تاخیری» (Lagging Indicators – مانند کلیک GSC) به «شاخص‌های پیشرو» (Leading Indicators – یعنی اقدامات استراتژیک ما) تغییر دهید:

  • گزارش اقدامات: «به جای اتکا به داده‌های معیوب، ما در ۴۸ ساعت گذشته، ۱۰ مقاله هسته‌ای خود را برای انطباق کامل با E-E-A-T بازنویسی کردیم.»
  • گزارش تحلیل لاگ: «تحلیل لاگ ما نشان می‌دهد که گوگل در حال باز-ارزیابی عمیق بخش‌های تخصصی سایت ماست که سیگنال مثبتی است.»
  • پیام اصلی: «ما بر اساس داده‌های غلط، تصمیمات هیجانی نمی‌گیریم. استراتژی ما بر پیروزی در پارادایم جدید GEO متمرکز است و در حال اجرای دقیق آن هستیم، در حالی که رقبا احتمالاً درگیر تحلیل داده‌های نادرست هستند.»

جمع‌بندی: عبور از مه با قطب‌نمای E-E-A-T

اختلال همزمان GSC با آپدیت هسته هوش مصنوعی، بیش از یک باگ فنی، یک درس استراتژیک است: دوران اتکای کورکورانه به ابزارهای گزارش‌دهی مشتق‌شده به پایان رسیده است. در این «مه داده»، هرگونه تصمیم‌گیری هیجانی بر اساس ارقام معیوب GSC، یک قمار پرریسک است.

به عنوان استراتژیست‌های پیشرو، وظیفه ما بازگشت به «منبع حقیقت» (Source of Truth) یعنی لاگ فایل‌های سرور، و اتکا به قطب‌نمای تغییرناپذیر اصول، یعنی E-E-A-T (تجربه، تخصص، اعتبار، اعتماد) است. اکنون زمان آن است که به جای رصد وسواس‌گونه نوسانات، بر ساختن بنیادی محتوایی تمرکز کنیم که برای پیروزی در عصر جدید «بهینه‌سازی موتور مولد» (GEO) طراحی شده است. آرامش خود را حفظ کنید و بر کیفیت تمرکز کنید، نه بر داده‌های معیوب.

سوالات متداول (FAQ)

۱. افت شدید ترافیک من به دلیل آپدیت هسته AI است یا باگ GSC؟

این دقیقاً چالش اصلی است و در حال حاضر هیچ راهی برای تشخیص قطعی این دو از طریق GSC وجود ندارد. توصیه اکید ما این است که فرض را بر سناریوی بدتر (تأثیر آپدیت) بگذارید و بلافاصله ممیزی E-E-A-T و بهبود کیفیت محتوای خود را آغاز کنید، به جای اینکه منتظر رفع باگ GSC بمانید.

۲. آیا می‌توانم به ابزارهای سئوی شخص ثالث (Third-party) اعتماد کنم؟

با احتیاط بسیار شدید. این ابزارها نیز برای ردیابی پارادایم قدیمی «۱۰ لینک آبی» طراحی شده‌اند و هنوز معیارهای جدید عصر GEO (مانند «میزان استناد» در پاسخ‌های AI) را اندازه‌گیری نمی‌کنند. داده‌های آن‌ها می‌تواند به اندازه GSC گمراه‌کننده باشد. از آن‌ها فقط به عنوان یک سیگنال جانبی استفاده کنید.

۳. در این شرایط عدم قطعیت، به مدیران ارشد خود چه گزارشی بدهم؟

«اقدامات» را گزارش دهید، نه «نوسانات» را. به جای نمایش نمودارهای قرمز GSC، بر مدیریت بحران تمرکز کنید. توضیح دهید که زیرساخت گزارش‌دهی گوگل به دلیل بزرگی آپدیت مختل شده است و تیم شما به جای اتلاف وقت برای تحلیل داده‌های معیوب، در حال اجرای فعالانه تحلیل لاگ فایل‌ها و ارتقای E-E-A-T سایت برای انطباق با پارادایم جدید است.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *