هدف این دستور تعیین محدودیت در میزان مصرف منابع سرور با تنظیم میزان تاخیر بین بازدیدهای مختلف رباتهای خزنده است. در مثال زیر ربات خزنده موظف است بین هر درخواست ۸ میلی ثانیه توقف کند. گوگل از این دستور پشتیبانی نمیکند و شما میتوانید فرکانس خزش را در گوگل سرچ کنسول تنظیم کنید.
برای Google، مدیران میتوانند فرکانس خزیدن را برای وبسایت خود در کنسول جستجوی Google تغییر دهند. دستور Disallow به رباتها میگوید که چه فولدرهایی از وبسایت شما را نباید بررسی کنند. درواقع این دستور، بیانگر آدرسهایی است که میخواهید از رباتهای جستجو پنهان بماند. و شما میتوانید برای ویرایش و ایجاد آن از یک FTP یا با فایل منیجر کنترلپنل هاست خود اقدام کنید. این فایل درست مثل هر فایل متنی معمولی است و شما میتوانید آن را با یک ویرایشگر متن ساده مانند Notepad باز کنید.
کاربرد دقیق فایل Robots.txt در یک سایت چیست؟
هر robots.txt فقط میتواند یک منبع را پوشش دهد.مثلا برای یک وبسایت که دارای چندین زیر دامنه است هر زیر دامنه باید یک robots.txt داشته باشند. در واقع اگر example.com یک robots.txt داشته باشد اما a.example.com نداشته باشد قوانینی که بر روی example.com اعمال میشود روی a.example.com اعمال نخواهد شد همچنین هر پروتکل و پورت به robots.txt خودش نیاز دارد. قابل استفاده برای یک خزنده یا گروهی از خزنده که در فایل robots.txt گنجانده شده است.
- Wildcard امروزه توسط موتورهای جستجویی مانند گوگل، یاهو، بینگ و Ask پشتیبانی می شود.
- با اجرای دستور Crawl-delay بعد از برطرف کردن مشکل، صفحه شما توسط ربات های موتور جستجوی گوگل کراول و ایندکس خواهد شد.
- بعد از ایجاد و یا انجام اصلاحات در فایل ربات، باید از صحت تغییرات خود مطمئن شوید.
با ایجاد فایل Robots.txt میتوانید از ایندکس شدن صفحات غیرضروری سایت و یا صفحاتی که هنوز دارای محتوای مناسبی نیستند و یا قوانین سئو در آنها پیاده نشده است به راحتی جلوگیری نمایید. انجام این کار تاثیر مستقیمی بر سئو سایت شما دارد و تنها صفحات استاندارد و معتبر را در دسترس رباتها و سپس کاربران قرار خواهد داد. برخی موتورهای جستجو از چند نوع ربات برای بررسی سایتها استفاده میکنند؛ مثلاً گوگل دارای ربات Googlebot برای جستجوی ارگانیک در بین سایتها است. همچنین گوگل دارای ربات Googlebot-Image برای جست جوی تصاویر نیز است. اکثر موتورهای جستجو از قوانین یکسان استفاده میکنند، بنابراین نیازی نیست برای هر موتور جستجو یک دستورالعمل مجزا نوشته شود. برخلاف رباتهای موتور جستجو گوگل، برخی از موتورهای جستجو دستورات موجود در فایل robots.txt را نادیده میگیرند.
گوگل رباتهایی دارد که عکس را جستوجو میکنند و رباتهایی نیز دارند که به سراغ محتواها میروند. نیازی نیست برای این دو ربات جداگانه دستورالعمل مشخص کنیم، اما دادن دستورالعمل میتواند، نحوهی خزیدن مجله خبری سئو این رباتها در سایت شما را تنظیم و کنترل کند. استفاده از فایل Robots.txt تاثیر بسزایی بر عملکرد بهینه سایت و سئو آن دارد و به همین دلیل است که تمامی وب سایتها باید دارای فایل ربات ساز باشند.
طراحی سایت حسابداری برای شرکتها و موسسات حسابداری و حسابرسی دارای مزایای بسیاریست. طراحی سایت حسابداری اگر به درستی انجام شود، باعث برندسازی و افزایش مشتری و فروش بیشتر این شرکتها و موسسات حسابداری و حسابرسی میشود. در این مقاله قصد داریم درباره طراحی سایت حسابداری بیشتر صحبت کنیم. جدول زیر شامل نمونههایی از آدرسهای اینترنتی robots.txt و مسیرهای URL است که برای آنها معتبر هستند.
نکته مهمی که باید به آن توجه داشت این است که همه زیر دامنه ها به فایل robots.txt خود نیاز دارند. به عنوان مثال، دامنه فایل مخصوص به خود را دارد، همه زیر دامنه های Cloudflare (blog.cloudflare.com، community.cloudflare.com و غیره) نیز به فایل خود نیاز دارند. نادرست تنظیم شده باشد، می تواند باعث اشتباه در ایندکس شدن صفحات سایت شود. گاهی اوقات صاحبان سایت ها بعلت نداشتن اطلاعات کافی در این زمینه اشتباهاتی را در ساخت یا ویرایش این فایل متنی رقم می زنند که منجر به خساراتی به سئوی سایت آنها می شود. این دستور به ربات گوگل میگوید علی رغم اینکه فولدر Photos از دسترس رباتها خارج شده است، اجازه مشاهده و ایندکس فایل novin.jpg را دارد.
یکی از مشکلاتی که برای سایتها پیش میآید و عملاً جز ماموریتهای یک متخصص سئو میباشد، این است که نهایت استفاده از بودجه خزش را بکند، از این رو با مسدود کردن برخی از پیشفرضهای صفحات سایت میتواند این امر را محقق کند. طرز پیادهسازی این کار به این شکل است که، برخی از صفحات بیاهمیت و یا کم اهمیت سایت را روی حالت نو ایندکس قرار میدهیم و با پیادهسازی این حرکت، بودجه خزش ما خرج صفحات اصلی سایت میشود. به طور کلی استفاده از فایل Robots.txt برای محدود ساختن دسترسی رباتها به برخی صفحات گزینه بهتری محسوب میشود زیرا اجرا و پیاده سازی تگ نوایندکس بر روی منابع چندرسانهای کمی دشوار است. از طرفی دیگر نیز محدود ساختن تعداد زیادی صفحه در سایت از طریق فایل Robots.txt بسیار ساده است و با افزودن یک آدرس به فایل انجام میشود اما تگ نوایندکس باید به صورت دستی به هر صفحه اضافه شود.
به عنوان مثال فایل robots.txt سایت گروه دیجیتال نردبان از اینجا قابل مشاهده است. برای ساخت robots.txt در وردپرس باید در مرحله اول در هاست سایت روی File Manager کلیک کرد تا به فایل های هاست دسترسی داشت. در مرحله بعد وارد مسیر /public_html/ شده تا وارد مسیر نصب وردپرس شد. در گام سوم باید با استفاده از برنامه notepad یا سایر نرم افزارهای ویرایشگر متن فایلی به نام robots.txt ایجاد کرد سپس بر روی دکمه آپلود در فایل منجر کلیک نموده و فایل را در این مسیر قرار دهید. روش دیگر ساخت این فایل به این صورت است که روی FILE+ کلیک کرده و در پنجره باز شده نام فایل را در فیلد New File Nameوارد نمایید.
آشنایی با دستورات فایل Robots.txt و معانیشان
با داشتن یک سایت تمام تلاشهای شما برای بازاریابی دیجیتال موفقیت آمیز خواهد بود. در این مقاله قصد داریم تا بیشتر مقولهی طراحی سایت را برای شما واکاوی کنیم تا متوجه شوید که چه نوع طراحی سایت برای کسب و کار شما مناسب است؟ با ادامهی این مقاله همراه باشید. 5xx از آنجایی که سرور نمی تواند پاسخ قطعی به درخواست robots.txt گوگل بدهد، گوگل موقتاً خطاهای سرور را 5xx و 229 تفسیر می کند که گویی سایت کاملاً غیر مجاز است. Google سعی میکند فایل robots.txt را بخزد تا زمانی که کد وضعیت HTTP بدون خطای سرور را دریافت کند.