فایل robots txt و تاثیر آن بر سئو وب‌سایت ادمین سایت-سئو

جاب تیم یک پلتفرم خلاقانه جهت برند سازی شخصی و کسب درآمد از طریق تولید محتوای تخصصی و با کیفیت است. در جاب تیم شما میتوانید یک رزومه قوی از خودتون در صفحه اول گوگل ایجاد کنید با افراد متخصص حوزه خود آشنا شوید و پیشنهادهای کاری جذابی از طریق کارفرماها دریافت کنید. جاب تیم در زمینه های برنامه نویسی ، دیجیتال مارکتینگ و سئو فعالیت می کند. بعد از بارگذاری این فایل در هاست خود نیازی به هیچ فعالیت دیگری برای معرفی به گوگل ندارید خود این موتور جستجو در همین مسیر استاندارد آپدیت های شما را نیز دریافت خواهد کرد. Google ممکن است نویسه‌هایی را که بخشی از محدوده UTF-8 نیستند نادیده بگیرد، و احتمالاً قوانین robots.txt را نامعتبر می‌کند. اگر url ای از سایت را با این روش مسدود کرده باشید باز هم در نتایج جستجو خواهد بود این روش برای فایل‌های ویدیویی، فایل‌های PDF و سایر فایل‌های غیر HTML قابل قبول برای گوگل است.

موتور جستجو گوگل به تجربه کاربری سایت‌ها توجه ویژه‌ای دارد، یکی از مواردی که به تجربه کاربری کاربران لطمه زیادی وارد می‌کند بحث از دسترس خارج شدن سایت یا به اصطلاح down شدن آن است. برای انجام این کار و یافتن خطاهای فایل Robots.txt ابتدا وارد وب سایت Google Search Console شده و سپس وارد بخش robots.txt Tester شوید و گزینه Test را انتخاب کنید. در صورت وجود هرگونه مشکل در فایل Robots.txt پس از چند ثانیه ارور قرمز رنگ Disallowed به همراه تمامی خطاهای موجود به صورت با هایلایت شده برای شما نمایش داده می‌شوند. اما اگر فایل خود را به درستی تنظیم کرده باشید گزینه قرمز Test به گزینه Allowed سبز رنگ تغییر پیدا خواهد کرد.

امیدواریم این نگاه حرفه‌ای به رقابتی سالم دامن بزند که در نهایت به پیشرفت وب فارسی منجر شود. مثلا در مثال بالا ربات‌های خزنده از دسترسی به تمام فایل‌های پی دی اف و اکسل منع شده‌اند. مثلا در مثال بالا ربات‌های خزنده از دسترسی به تمام آدرس‌هایی که به autos. در مثال زیر تمامی ربات‌ها از دسترسی به دایرکتوری media منع شده‌اند اما در مجله خبری سئو عین حال اجازه دسترسی به یک فایل پی دی اف با عنوان terms-and-conditions.pdf موجود در دایرکتوری media داده شده است. در صورتی که سایت شما دارای ساب دامین است لازم است هریک از این ساب دامین‌ها دارای فایل robots.txt مختص خود باشند. بعنوان مثال nardebangroup.com فایل خودش را دارد و my.nardebangroup.com هم فایل robots.txt جدا دارد.

ربات‌های موتورهای جست‌وجو فقط دستورات Disallow و Allow را قبول دارند و می‌دانند. البته می‌توانیم با دستور Crawl-delay، گشتن و کراول کردن آن‌ها را برای صفحه‌ای خاص به تاخیر بیاندازیم. سایت مپ، سایت شما نیز در دستورات فایل Robot.txt قرار می‌گیرد که به ربات‌های موتورهای جست‌وجو می‌گوید فایل XML نقشه سایت کجاست. پس برای این‌که به آن‌ها بگویید صفحه‌ای را ایندکس نکنند باید از دستور Disallow و برای این‌که بگویید بعدا این صفحه را کراول کنند از دستور Crawl-delay باید استفاده کنید.

بهترین روش برای پیشگیری از مسدود شدن محتوا

این امر به‌ویژه در مورد خزنده‌های بد مانند ربات‌های بدافزار یا خراش دهنده آدرس ایمیل رایج است. استفاده از این نحو در فایل robots.txt به همه خزنده‌های وب می‌گوید که هیچ صفحه‌ای را در از جمله صفحه اصلی، نخزند. اگر فایل حاوی قاعده‌ای باشد که برای بیش از یک کاربر عامل اعمال می‌شود، خزنده فقط به خاص‌ترین گروه دستورالعمل‌ها توجه می‌کند.

ساخت و ویرایش فایل robots.txt در سایت‌های وردپرسی

در واقع بخش های اطلاعات در سازمان ها و ادارات مختلف با هدف راهنمایی مراجعه کنندگان و پاسخ به سوالات آن ها ایجاد شده اند. (همچنین، اگر از پلاگین های وردپرس برای ریدایرکت یا کاستومایز پرمالینک ها استفاده کرده باشید، ممکنه اشکال از این پلاگین ها باشه و با غیر فعال کردنشون ممکنه که این مشکل برطرف بشه). در مورد مشکلت فکر نمی کنم robots.txt بتونه بهت کمکی بکنه چون این مشکل باید از یک جای دیگه درست بشه.

  • حالا که با مهم‌ترین دستورات مورد نیاز در فایل robots آشنا شدید، بد نیست نکاتی را یادآور شویم که خیلی از وبمستران به اشتباه انجام می‌دهند و همین اشتباهات کوچک اتفاقات خیلی بدی را در سئو سایت آن‌ها رقم می‌زند.
  • مجددا باید تکرار کنیم که استفاده از این دستور صرفا صفحات را از دسترسی ربات‌ها مخفی می‌کند و ممکن است کاربر با کلیک روی لینک این صفحات امکان بازدید صفحه را داشته باشد و یا حتی این صفحات در نتایج جستجو فهرست شوند.
  • در برخی موارد بلاک کردن موتورهای جستجو از بررسی بخش‌های مشکل دار سایت شما، مخصوصا در سایت‌های که نیاز به پاکسازی سئویی گسترده دارند، می‌تواند مفید باشد.
  • پس از باز شدن کشوی Crawl، ابزار robots.txt tester را مشاهده می‌کنید.
  • درنهایت، پس از واردکردن دستورات، بر روی گزینه Test که در پایین صفحه در سمت راست قرار دارد، کلیک کنید.اگر نوشته دکمه از Test به Allowed تغییر یافت به این معنی است که فایل robots.txt شما معتبر است.
منتشر شده در
دسته‌بندی شده در اخبار