ما هو ملف robots.txt؟
ملف robots.txt يخبر زواحف محركات البحث بأي صفحات أو ملفات يمكن أو لا يمكن للزاحف طلبها من موقعك. ملف robots.txt
هو ملف معياري على الويب تستهلكه معظم الروبوتات الجيدة قبل طلب أي شيء من نطاق معين.
قد ترغب في حماية أجزاء معينة من موقعك من الزحف، وبالتالي من الفهرسة، مثل نظام إدارة المحتوى (CMS) أو لوحة التحكم، حسابات المستخدمين في متجرك الإلكتروني، أو بعض مسارات واجهة برمجة التطبيقات (API)، على سبيل المثال لا الحصر. يجب أن يتم تقديم هذه الملفات في جذر كل مضيف، أو يمكنك تحويل مسار /robots.txt
الجذري إلى عنوان URL مستهدف وسيتبع معظم الزواحف ذلك.
كيفية إضافة ملف robots.txt إلى مشروع Next.js
بفضل خدمة الملفات الثابتة في Next.js، يمكننا بسهولة إضافة ملف robots.txt
. سنقوم بإنشاء ملف جديد باسم robots.txt
في مجلد public
في الدليل الجذري. إليك مثال لما يمكنك وضعه في هذا الملف:
//robots.txt
# منع جميع الزواحف من /accounts
User-agent: *
Disallow: /accounts
# السماح لجميع الزواحف
User-agent: *
Allow: /
عند تشغيل التطبيق باستخدام yarn dev
، سيكون الملف متاحًا الآن على http://localhost:3000/robots.txt. لاحظ أن اسم مجلد public
ليس جزءًا من عنوان URL.
لا تقم بتسمية مجلد public بأي اسم آخر. لا يمكن تغيير الاسم وهو المجلد الوحيد المستخدم لخدمة الأصول الثابتة.