تنظیم فایل robots.txt
- 1403/12/16
در دنیای اینترنت و سئو، فایل robots.txt
یکی از عناصر کلیدی برای کنترل نحوه تعامل موتورهای جستجو با وبسایتها است. این فایل که در ریشه (root) سایت قرار میگیرد، به موتورهای جستجو اعلام میکند که کدام بخشهای سایت را میتوانند بررسی کنند و کدام بخشها را باید نادیده بگیرند.
فایل robots.txt
یک فایل متنی ساده است که در دایرکتوری اصلی وبسایت قرار میگیرد و شامل دستورالعملهایی برای خزندههای موتورهای جستجو مانند Googlebot، Bingbot و سایر رباتها میباشد. این فایل به منظور مدیریت رفتار این خزندهها طراحی شده است تا بتوان محتوای سایت را بهتر مدیریت کرد.
robots.txt
میتوان از ورود موتورهای جستجو به آن بخشها جلوگیری کرد.robots.txt
برای جلوگیری از دسترسی کاربران به اطلاعات حساس استفاده کرد، اما میتوان برخی صفحات را از ایندکس شدن در موتورهای جستجو خارج کرد.برای ایجاد این فایل کافی است یک فایل متنی (.txt
) ایجاد کنید و آن را در ریشه دامنه خود بارگذاری نمایید. این فایل باید به درستی پیکربندی شود تا از مشکلات احتمالی جلوگیری شود.
اجازه دسترسی کامل به تمامی خزندهها:
User-agent: *
Disallow:
این دستور به تمامی رباتها اجازه میدهد که کل سایت را بررسی کنند.
ممنوعیت دسترسی به یک دایرکتوری خاص:
User-agent: *
Disallow: /private/
این دستور مانع از دسترسی تمامی رباتها به پوشه private
میشود.
اجازه دادن به یک موتور جستجو و مسدود کردن دیگران:
User-agent: Googlebot
Allow: /
User-agent: *
Disallow: /
در این حالت، تنها گوگل اجازه دارد سایت را بررسی کند و سایر رباتها مسدود میشوند.
لینک به نقشه سایت:
Sitemap: https://www.example.com/sitemap.xml
این دستور به موتورهای جستجو کمک میکند که نقشه سایت را پیدا کنند.
robots.txt
عمومی است و هر کسی میتواند به آن دسترسی داشته باشد، بنابراین نباید از آن برای مخفی کردن اطلاعات حساس استفاده کرد.فایل robots.txt
ابزاری ساده اما قدرتمند برای کنترل نحوه ایندکس شدن صفحات سایت توسط موتورهای جستجو است. با استفاده صحیح از آن، میتوان عملکرد سایت را بهبود بخشید و از مشکلات احتمالی جلوگیری کرد. بهینهسازی این فایل، یکی از گامهای مهم در سئوی فنی (Technical SEO) محسوب میشود.
رایگان ثبت نام کنید و اولین نفری باشید که از پست های جدید مطلع می شوید.