از اینرو اگر میخواهید صفحات مربوط به رسانه سایت شما ایندکس شوند، در چنین حالتی از یک تگ noindex در صفحات استفاده می شود. با این حال، تگ noindex از نشان دادن محتوا در صفحات دیگر نیز جلوگیری میکند. موتورهای جستجو معمولاً اطلاعات قرار داده شده در Robots.txt را برای چند روز در حافظه خود نگه میدارند. در صورتی که این فایل را بروزرسانی کردهاید بهتر است آدرس آن را برای بررسی در گوگل سرچ کنسول ارسال کنید تا سریعتر بروز رسانی شود.
بنابراین، robots.txt یک ابزار ضروری برای کنترل نمایهسازی صفحات شما است. خصوصی نگهداشتن بخشهای کامل یک وبسایت (بهعنوانمثال، سایت مرحلهبندی تیم مهندسی وب جوان). 2- کد robots.txt اصلاح شده خود را از صفحه ابزار تست Robots.txt با کلیک بر روی دکمه آپلود در کادر محاورهای آپلود کنید. وقتی صحبت از URLهای واقعی برای مسدودکردن یا مجاز شدن میشود، فایلهای robots.txt میتوانند نسبتاً پیچیده شوند زیرا امکان استفاده از تطبیق الگو را برای پوشش طیف وسیعی از گزینههای URL ممکن میدهند.
تم رو عوض کردم و در گوگل وبمستر هم سایت رو ثبت کردم اما افزونه یوست هنوز پیغام میده که سایتتون ایندکس نمیشه.در سایت وبمستر تولز هم برای نقشه ی سایت ارور میده! با ابزار انلاین که فایل robots.txt رو چک کردم میگفت وجود نداره اما از طریقی که شما اموزش دادید فایلی رو اورد که اصلا دستوراتش فرق میکنند. اگر اجازه بررسی صفحهای را با دستورات فایل ربات نداده باشیم باز هم امکان دارد گوگل آن را ایندکس کند و در نتایج جستجو ظاهر شود.
آشنایی با محدودیت های Robots.txt
در این حالت یکی از راه حلهای پیشنهادی گوگل، استفاده از تگ noindex در هدر صفحه مورد نظر است. البته بهتر است برای اطمینان بیشتر و جلوگیری صددرصد از ایندکس اینگونه صفحات از تگ noindex هم استفاده کنیم که در جلوتر به صورت مفصل به آن خواهیم پرداخت. علاوه بر اینها، حجم زیادی از ترافیک و منابع هاست و سرور ما هم صرف پاسخگویی به رباتها میشود که بسیاری از این درخواستها بدون سود و تنها مضر هستند و الکی منابع سایت ما را هدر میدهند. برای درک بهتر نقش فایل ربات در سایت، علائم راهنمایی و رانندگی را در ذهنتان تجسم کنید. ربات های گوگل را تحت اختیار خودت بگیر، بهشون دستور بده و بگو چکار کنند. همراه من باش تا بهت بگویم که چه طوری ربات های گوگل را تحت اختیار خودت بگیری.
چک کردن وجود فایل robots.txt
ادمین سایت با هدف راهاندازی کسبوکار اینترنتی به صورت آسان ایجاد شده. در اینجا میتونی یاد بگیری چطور یک کسبوکار اینترنتی را از مجله خبری سئو صفر راه بندازی و مدیریت کنی. اندازه محتوا از جمله موارد مهمی است که شما باید در هنگام تولید محتوا دقت لازم را به آن داشته…
برای مثال می توانید به ربات های گوگل بگویید که کدام صفحات سایت شما را ایندکس کنند و در نتایج گوگل نمایش دهند و کدام صفحات را در نتایج گوگل نمایش ندهند و ایندکس نکنند. باید توجه داشته باشید که استفاده نادرست از فایل robots.txt میتواند به ضرر سایت شما تمام شود. بنابراین قبل از انجام هرگونه تغییرات اساسی در این فایل حتماً با یک متخصص سئو مشورت کنید و کدهای واردشده را چند بار موردسنجش و بازنویسی قرار دهید.
- فایلهای robots.txt بیشتر برای مدیریت فعالیتهای رباتهای خوب مانند خزندههای وب در نظر گرفته شدهاند، زیرا رباتهای بد اصلاً دستورالعملها را دنبال نمیکنند.
- توجه داشته باشید که حتما از یک صفحهی 404 یا صفحات مشابه برای دایرکتوریهایی که قرار نیست ایندکس شوند اما وجود دارند استفاده کنید.
- همانطور که در بهطور کامل توضیح دادیم برای مدیریت رباتهای موتورهای جستجو از دو دستور اصلی که شامل User-agent و Disallow است استفاده میشود.
- این شیوه تبلیغاتی، جایگزین تبلیغات بنری شده است و باعث بالا رفتن نرخ کلیک وبسایت شما میشود.
- این موضوع این امکان را در اختیار شما قرار خواهد داد که به کنترل تگ های خود بپردازید.
این فایل به موتورهای جستجو می گوید که چگونه می توانند به بهترین شکل ممکن وب سایت شما را جستجو کنند. به همین علت است که فایل robots.txt دارای نقش بسیار مهمی در سئو سایت می باشد. اگر وبسایت خود را به ابزار گوگل سرچ کنسول متصل کرده باشید، وقتی که ابزار تست را باز کنید از شما درخواست میکند که Property مورد نظرتان را انتخاب کنید. اما سایر رباتها وقتی به این دستور میرسند هیچ توجهی به آن نمیکنند و بدون محدودیت محتوای فولدر mypic سایت شما را هم بررسی میکنند چرا که محدودیت شما تنها مربوط به ربات Googlebot-Image میشود و نه تمام رباتها. بنابراین برای تهیه یک فایل robots.txt مناسب و عالی ما نیز باید با این دستورات و نحوه تفسیر آنها توسط رباتها آشنا باشیم. مهمتر از همه اینکه رباتهای گوگل به خوبی با این استاندارد آشنا هستند و از دستورات آن هم پیروی میکنند.