فایل robots.txt چیست؟

robots فایل

با فایل robots.txt می‌توانید خزنده‌های موتور جستجو را به صفحات مهم سایت هدایت کنید. این موضوع باعث بهینه شدن منابع سرور و صرفه جویی در کرال باجت سایت می‌شود که این موارد در نهایت باعث می‌شود که رتبه خوبی در نتایج و سئو سایت خود دریافت کنید. این مقاله راهنمای کاملی برای معرفی، روش استفاده و بهینه سازی فایل robots.txt است که می‌توانید تمامی موارد را در این مقاله مطالعه کنید.

چیست؟ robots.txt فایل
چیست؟ robots.txt فایل

با فایل robots.txt نمی توانید صفحه‌ای را از گوگل مخفی کنید که آن صفحه در نتایج ایندکس نشود. خزنده‌ها می‌توانید از طریق لینک‌هایی که به آن صفحه می‌رسند وارد آن صفحه شوند و آن صفحه را نمایه سازی کنند. برای این که یک صفحه را از دید گوگل مخفی کنید تا در نتایج نیاید فقط از دو روش می‌توانید استفاده کنید که در این صورت هم گوگل آنها را پیدا می‌کند اما نمایه سازی نمی‌شود.

  1. دستور no index را در صفحه ایجاد کنید.
  2. برای ورود به آن صفحه پسورد ایجاد کنید.

فایل robots.txt چه کاربردی دارد؟

1بهینه سازی بوجه خزش سایتبرای اینکه بتوانید بودجه خزش سایت خود را بهینه سازی کنید می‌توانید صفحات غیر ضروری و بی اهمیت سایت خود را در فایل Robots.txt مسدود کنید تا بودجه خزش سایت شما برای صفحاتی مانند درباره‌ما و تماس باما مصرف نشود. اگر این کار را نکنید صفحات سایت اصلی سایت شما خزش و نمایه سازی نمی‌شود یا اینکه زمان زیادی باید صرف آن کنید.
2بهینه سازی منابع سروروقتی خزنده‌ها وارد سایت شما می‌شوند مانند کاربران سایت مقداری از منابع سرور را استفاده می‌کنند. اگر صفحات بی اهمیت را در این فایل برای کرال شدن Disallow یا مسدود از خزیده شدن نکرده باشید خزنده‌ها وارد آن صفحات می‌شوند و از منابع سرور شما برای خزیدن در این صفحات استفاده می‌کنند. در این صورت منابع سرور شما مشغول می‌شود و بار سرور شما بی دلیل زیاد می‌شود.
3هدایت خزنده‌هاهنگامی که در فایل robots.txt صفحات غیر ضروری را مسدود می‌کنید خزنده‌ها به صفحات اصلی هدایت می‌شوند. که اگر این کار را نکنید باعث می‌شود که صفحات اصلی دیرتر کرال شود و یا در صف خزیدن بمانند که باعث ایجاد دو مشکل اساسی می‌شود.
صفحات مهم منتشر شده دیرتر کرال و ایندکس شوند.
تغییراتی که در آن صفحات ایجاد می کنید در گوگل دیرتر اعمال شوند.
4جلوگیری از نمایه سازی رسانه‌هادر این فایل می‌توانید رسانه‌ها یا همان فایل‌های تصویر، صوتی، ویدیو و اسکریپت‌ها را از نمایه سازی مسدود کنید. ممکن است در یک سایت صد‌ها یا هزاران فایل باشد که لازم نباشد در نتایج گوگل باشد در این صورت می‌توانید آنها را در فایل مسدود کنید.
کاربرد فایل robots و مزایای آن برای سایت

گذر خزنده ها از فایل robots.txt چگونه است؟

جلوگیری از ورود خزندهها در فایل robots.txt همه‌ی کرالرها را شامل نمی‌شود. بستگی به نوع خزنده دارد که از دستور شما پیروی می‌کند یا نه. البته خزنده‌های گوگل یا دیگر موتورهای جستجو قبل از ورود از دستورات شما در فایل پیروی می‌کنند و از دستورات به خوبی پیروی می‌کنند.

یک تکنیک در مورد کرالرها که باید بدانید

اگر می‌خواهید دسترسی در یک صفحه ایجاد کنید که کرالرها وارد آن صفحه نشوند به جای لینک از دکمه استفاده کنید.

خزنده‌ها قادر به عبور از دکمه button نیستند.

این مورد می‌تواند وقتی که می‌خواهید به صورت تخصصی خزنده‌ها را به سمتی هدایت کنید از دکمه استفاده کنید.

روش ایجاد فایل robots.txt

فایل robots.txt ریشه اصلی سایت قرار می‌گیرد و با آن می‌توانید کنترل کنید که خزنده‌ها در کدام یک از فایل‌های سایت بخزند و به کدام فایلها وارد نشوند. برای این کنترل باید یک یا چند قانون را در این فایل ایجاد کنید. مراحل ایجاد فایل

  1. این فایل را با ویرایشگر متنی می‌توانید ایجاد کنید.
  2. نام این فایل همیشه robots.txt است.
  3. این فایل در ریشه اصلی سایت ذخیره می‌شود و آدرس آن https://www.example.ir/robots.txt
  4. نوشتن قوانین در فایل (در ادامه می آموزید)

robots.txt در وردپرس

این فایل به صورت خودکار با افزونه yoast seo ایجاد می‌شود برای برای تغییرات فایل robots.txt در وردپرس از طریق یوست سئو وارد تنضیمات افزونه شوید و از قسمت ابزارها، ویرایشگر فایل را انتخاب کنید و تعییرات را ایجاد کنید. (در صورتی که صفحات سایت شما از 1000 صفحه کمتر است نیاز به هیچ گونه اقدامی برای بهینه سازی این فایل ندارید)

روش نوشتن قوانین و دستورات در robots.txt

در فایل robots.txt قوانین و دستورالعملهایی را می‌توانید به خزنده ها بدهید که به کدام قسمتها وارد شوند یا به کدام صفحات وارد نشوند. هر فایل از یک یا چند گروه تشکیل می‌شود که باز هر گروه از تعدادی دستورالعمل تشکیل می‌شود که با user-agent شروع می‌شود. سپس با دستوراتی مانند Disallow و allow و sitemap درسترسی خزنده‌ها به آن صفحه مشخص می‌شود. بهتر است که قبل از اینکه تغییراتی را ایجاد کنید تمام مراحل ایجاد و تغییرات این فایل را درک کرده باشید. چراکه اشتباهاتی اگر در این مورد انجام شود قابل مشاهده نیست و ممکن است برای همیشه آن اشتباه در سایت شما باقی بماند و شما متوجه آن نشوید و صفحات شما رشد چندانی در سئو نداشته باشند.

دستور disallowاین دستور(:disallow) دسترسی ربات‌ها را به صفحه یا صفحاتی که در آن اجرا شده است مسدود می‌کند تا خزنده‌ها وارد آن صفحه‌ها نشوند.
دستور allowبا این دستور (allow) اجازه ورود به صفحه را به ربات‌ها می‌دهد و در این صورت خزندهها وارد صفحه می‌شوند و صفحه را بررسی و خزش می‌کنند. با این دستور می‌توانید مقادیری را به صورت جزئی از مقادیر کلی که مسدود disallow کردید مستثنی کنید.
دستور sitemapبا استفاده از این دستور (sitemap) نقشه‌ی سایت را در همان ابتدای ورود خزنده‌ها به آنها می‌دهید و صفحاتی که در نقشه سایت شما وجود دارد را به کرالرها معرفی می‌کنید.
دستوراتی که در فایل ROBOTS.TXT می‌تواند اعمال شود.

تست فایل Robots در سرچ کنسول

وارد سرچ کنسول شوید تب Coverage یکی از تب‌ها را باز کنید سپس روی آن کلیک کنید و فایل robots.txt سایت را مشاهده کنید البته اگر تازه این فایل را تنظیم و ایجاد کردید ممکن است کمی زمان ببرد تا تغییرات در آنجا نمایش داده شود.

اگه کاملا متوجه کاربرد این فایل شدید دست به کار شوید و یک فایل ربات بهینه ایجاد کنید اگه سئوال یا نظری هم در مورد این مقاله داشتید زیر این پست برای من بنویسید. موفق باشید

4.7/5 - (3 امتیاز)

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا