فایل robots txt چیست؟ راهنمای جامع فایل ربات سایت دگردیسی-سئو

برای سال های طولانی گوگل توصیه می کرد که از دستورالعمل غیر رسمی noindex استفاده کنید. ارجاع دادن به نقشه XML سایت در robots.txt یکی از بهترین قابلیت های این فایل است که به شما پیشنهاد می کنیم همواره از آن استفاده کنید. برای نشان دادن انتهای یک لینک می توانید از علامت $ در انتهای مسیر مد نظر خود استفاده کنید. در صورتی که هیچ مسیری در این بخش تعریف نشده باشد این دستورالعمل به طور کامل نادیده گرفته می شود.

  • به عنوان مثال ربات های موتور جستجوی گوگل از Googlebot برای انجام این کار استفاده می کنند، ربات های یاهو از Slurp و ربات های موتور جستجوی بینگ نیز از BingBot استفاده می کنند.
  • Robots.txt مخفف شده عبارت Robots Exclusion Protocol می‌باشد که به معنی پروتکل حذف ربات می‌باشد.
  • برای پیدا کردن یک شناخت بهتر نسبت به فایل Robots.txt در ادامه همراه ما باشید.
  • قوانین فهرست شده در فایل robots.txt فقط برای میزبان، پروتکل و شماره پورتی که فایل robots.txt در آن میزبانی می شود اعمال می شود.
  • هرکدام از این ربات‌ها با توجه به شناختی که از سایت ما پیدا می‌کنند با نرخ مشخصی به نام “Crawl Budget” به سایت‌مان سر می‌زنند و تغییرات آن را بررسی می‌کنند.
  • اگر شما از سیستم مدیریت محتوای وردپرس و افزونه Yoast SEO استفاده کنید نیازی به بروز رسانی سایت مپ با انتشار هر مطلب یا بروزرسانی محتوا نخواهید داشتید این افزونه به صورت اتوماتیک تغییرات رو در سایت مپ اعمال خواهد کرد.

دستورالعمل Disallow در واقع مسیری را تعیین می کند که نباید به آن دسترسی داشت. دستورالعمل ها می توانند برای user-agent های خاصی مورد استفاده قرار می گیرند اما با این حال می توان از آنها برای تمامی user-agent مجله خبری سئو ها نیز استفاده کرد. در سئورب، مقالات آموزشی سئو و بررسی و تحلیل برخی از سایت ها را از نظر سئو انجام می‌دهیم. ما با سئورب، سایتی که در زمینه آموزش سئو است، از سال 96 کار خودمان رو شروع کردیم.

فایل Robots.txt چیست؟

اگر سایتی با تعداد صفحات زیاد داشته باشید که ربات ها همواره در حال بررسی این صفحات هستند، طبیعتا با مشکل سرعت و ترافیک بالا پهنا باند مواجه خواهید شد، لذا وجود این فایل برای کنترل این درخواست ها ضروری است. طبیعتاتولید محتوا عالی برای همه صفحات یک سایت کاری سخت و زمانبر است. به همین جهت با دستورات داده شده به فایل ربات می توان از بررسی صفحات با محتوا بی کیفیت توسط گوگل جلوگیری کرد. شاید برخی از صاحبان سایت و وبمستران علاقه نداشته باشند برخی از صفحات و فایل های موجود در سایت خود را نمایش دهند. به همین دلیل با اعمال دستوراتی در فایل ربات سایت می توان از این امر جلوگیری کرد.

فایل Robots.txt چیست و چکار می‌کند؟

اگر این کارها را با موفقیت انجام دهید، ساعت و تاریخ آخرین بررسی فایل ربات به زمانی بعد از درخواست تغییر می‌کند. برای اطمینان هم می‌توانید دوباره از همین ابزار برای مطمئن شدن استفاده کنید. برای دسترسی به دایرکتوری Root وب‌سایت‌تان می‌توانید به اکانت هاستینگ وب‌سایت وارد شوید. امکان دارد هر کدام از ربات‌ها دستورات را به شکل متفاوتی درک کند.

در حال حاضر موتور جستجوی گوگل از حداکثر سایز 500 کیلوبایت برای فایل robots.txt پشتیبانی می کند. در زمان پیاده سازی این قطعه کد در فایل robots.txt توجه داشته باشید که این کار باعث قطع شدن دسترسی تمامی ربات های گوگل می شود. با این حال باید توجه داشت که موتورهای جستجو گوگل و بینگ در این جا اجازه دسترسی خواهند داشت چرا که طول کاراکترهای دستورالعمل بیشتر از Allow می باشد. شما می توانید به موتورهای جستجو بگویید که به فایل ها، صفحات یا لینک های خاصی از وب سایت شما دسترسی نداشته باشند.

با بهینه سازی فایل ربات موتورهای جستجو از جمله گوگل می‌توانند از بررسی صفحات کم اهمیت صرف نظر کرده و به بررسی صفحات مهمتر سایت بپردازند. اهمیت دیگر فایل robots.txt امکان مشخص کردن نقشه سایت XML توسط این فایل است؛ نقشه سایت نیز یک فایل متنی شامل فهرستی از آدرس هایی از صفحات سایت است که می خواهیم توسط موتورهای جستجو ایندکس شوند. وقتی که آدرس نقشه سایت XML در فایل robots.txt قرار داده می شود، ربات های گوگل راحت تر می توانند این نقشه را پیدا کنند. گوگل دیگر کودکی نیست که فقط به محتوای html سایت شما دقت کند و آن را در حالی که شما از دیگر تکنولوژی هایی مثل جاوا اسکریپت و … استفاده می کنید نادیده بگیرد و تمامی محتواهای تمام صفحات شما را بیرون بکشد. اگر به آن بگویید صفحاتی مثل بک اند وب سایتتان را ایندکس نکند، او به شما احترام می گذارد و این کار را انجام نمی دهد.

یعنی امکان دارد دو ربات متعلق به یک موتور جستجو یا هر سرویسی، یکی از دستورات پیروی کند و دیگری پیروی نکند. گوگل تعدادی ربات خزنده دارد که به صورت خودکار وبسایت‌ها را اسکن می‌کنند و صفحه‌ها را با دنبال کردن لینک‌ها از صفحه‌ای به صفحه دیگر پیدا می‌کنند. گوگل اعلام کرد که برای حذف صفحه‌ها از نتایج جستجو، بهتر است از را‌ه‌های دیگری به جز فایل Robots.txt استفاده کنید. البته در حال حاضر می‌توان از این فایل برای خارج کردن فایل‌هایی مثل تصاویر، ویدیو یا صدا از نتایج جستجو استفاده کنید اما برای صفحات وب مناسب نیست. فایل Robots.txt در وبسایت‌ها نقش همین راهنماها و نگهبانان را دارد اما نه برای کاربرانی که وارد سایت می‌شوند، بلکه برای ربات‌هایی که برای بررسی سایت یا هر کار دیگری می‌خواهند در بخش‌های مختلف سایت سرک بکشند. بنابراین اگر شما هم قصد راه اندازی یک وب سایت بزرگ تجاری را دارید حتما باید به کیفیت فایل robots.txt وب سایت خود توجه کنید و تمامی نکاتی که در این مطلب بیان کردم را رعایت کنید.

Crawl-delay

منتشر شده در
دسته‌بندی شده در اخبار برچسب خورده با