با اجرای دستور Crawl-delay بعد از برطرف کردن مشکل، صفحه شما توسط ربات های موتور جستجوی گوگل کراول و ایندکس خواهد شد. دستور Allow دقیقا برعکس دستور Disallow عمل می کند؛ این دستور به ربات های موتور جستجوی گوگل اجازه ایندکس کردن را می دهد. User-agent رباتهای خزنده به ادمینهای سایت کمک میکنند تا انواع رباتهای خزنده در حال بررسی سایت را بشناسند. در فایل robots.txt شما قادر خواهید بود تا برای رباتهای مختلف، دستورالعملهای مختلفی صادر کنید. همانطور که در بهطور کامل توضیح دادیم برای مدیریت رباتهای موتورهای جستجو از دو دستور اصلی که شامل User-agent و Disallow است استفاده میشود. همچنین در فرآیندهای خزیدن و نمایهسازی، دستورالعملها به عنوان دستوراتی عمل میکنند تا رباتهای موتور جستجو ، مانند Googlebot، به صفحات مناسب هدایت شوند.
- دستورات robots.txt ممکن است توسط همه موتورهای جستجو پشتیبانی نشود.دستورالعملهای موجود در فایلهای robots.txt نمیتوانند رفتار خزنده را در سایت شما اعمال کنند.
- با این حال امکان تطبیق الگو برای طیف وسیعی از URL ها وجود دارد.
- همانطور که متوجه شدید، اگر فایل رباتی در کار نباشد، خزندههای موتور جستجو گوگل سرشان را میاندازند پایین و هرچیزی که جلو دستشان برسد را بررسی میکنند.
- اگر وبسایت خود را به ابزار گوگل سرچ کنسول متصل کرده باشید، وقتی که ابزار تست را باز کنید از شما درخواست میکند که Property مورد نظرتان را انتخاب کنید.
تعدادی کمی از سایتها مانند google از چندین user-agent پشتیبانی میکند که با استفاده از رشتههای user-agent خاص به اپراتور اجازه قطع دسترسی از زیرمجموعهٔ سرویسهای آنها را میدهد. در فایل روبوتس می تواند قسمت هایی از وب سایت خود را از دید گوگل یا سایر وب سایتها مخفی کنید. که نشان از عدم ایندکس کلی سایت شما دارد تا لیستی از صفحات مهم وب سایت شما. درست است که فایل robots.txt رتبه برتر را تضمین نمی کندف اما برای بهبود سئو مهم است. این فایل ها جزئی از سئو فنی محسوب می شوند که در نتیجه باعث رضایت بازدیدکنندگان شما می شود.
UGC محتوای تولید شده توسط کاربر چیست؟
در این مثال به تمامی موتورهای جستجو گفته شده است که به مسیر /wp-admin/ دسترسی نداشته باشند. این کار با وجود این که برای کاربران یک قابلیت فوق العاده است ولی در اکثر مواقع می تواند برای موتورهای جستجو گیج کننده باشد چرا که باعث به وجود آمدن محتوای تکراری می شود. تا جای امکان سعی کنید از استفاده از دستورالعمل crawl-delay در این فایل برای موتورهای جستجو خودداری کنید. به همین علت است که فایل robots.txt دارای نقش بسیار مهمی در سئو سایت می باشد. این کد در فایل Robots.txt به این معنی است که رباتها به هیچ محتوایی که در پوشه ذکرشده قرار دارد، دسترسی ندارند.
این فایل را خود وب مستران باید برای سایت بسازند و باید طبق استانداردهای خود گوگل باشد. این استاندارد که با نام Robots Exclusion Protocol شناخته می شود تمام قوانین که در فایل robots.txt و لینک های فالو و نوفالو باید در آن رعایت شود ذکر شده است. این فایل به ربات های گوگل می فهماند که چه صفحاتی را کراول کند و چه صفحاتی را کراول نکند. دستور Disallow برای ایندکس نکردن کاربرد دارد؛ با این مجله خبری سئو دستور شما به ربات های موتور جستجو می گویید که نمی خواهید صفحه یا بخش مورد نظر در سایتتان، ایندکس شود. بعد از اینکه public_html را باز کردید، فایل را به داخل آن بکشید؛ توجه داشته باشید که به عنوان مالک سایت، باید بتوانید به تمام قسمت های فایل دسترسی داشته باشید و آن را بخوانید، ویرایش کنید و بنویسید. لازم به ذکر است که این دسترسی ها را هیچ شخصی به غیر از مالک سایت نباید داشته باشد.
راهنمای کامل فایل robots.txt
در صورت مشاهده این تگ در هدر یک صفحه گوگل بهطورکلی آن را از نتایج جستجوی خود خارج خواهد کرد. تیم وب داران با تکیه بر سه اصل آموزش , اجرا و مدیریت به صورت تخصصی در حوزه های طراحی سایت، سئو از سال 1394 فعالیت خود را با نام رایانه پویان آغاز کرد. Robots.txt یک گزینه برای به حداقل رساندن محتوای تکراری موجود برای خزیدن است. روشهای دیگری برای اطلاعرسانی به Google در مورد محتوای تکراری است اما میتوانید با استفاده از فایلهای robots.txt محتوای تکراری را حذف کنید تا بودجه خزیدن خود را نیز حفظ کنید.
ویرایش فایل ربات سایت توسط افزونه سئو یواست (Yoast SEO)
ما در این مقاله بیشتر به ایندکس شدن محتوای سایت در گوگل می پردازیم. دستور بالا به این معنی است که دستورات بعدی، برای همه رباتهای جستجوگر یکسان عمل کند. اما اگر میخواهید تنها به یک ربات خاص مانند ربات گوگل دستور خاصی را بدهید، دستور شما باید به شکل زیر نوشته شود. این کد به این معنی است که “اجرای دستورات فایل، تنها برای ربات گوگل الزامی است. هر خزنده ای ممکن است سینتکس کد شما را متفاوت تفسیر کنداگرچه خزندههای وب معتبر دستورالعملهای موجود در فایل robots.txt را قبول میکنند، اما هر خزنده ممکن است دستورالعملها را متفاوت تفسیر کند. شما باید سینتکس مناسب برای آدرس دادن به خزنده های وب مختلف را بدانید زیرا ممکن است برخی دستورالعمل های خاصی را درک نکنند.