ملف robots.txt

أضف أو أنشئ ملف robots.txt يتوافق مع معيار استثناء الروبوتات في الجذر من دليل app لإخبار زواحف محركات البحث عن عناوين URL التي يمكنها الوصول إليها في موقعك.

ملف robots.txt الثابت

app/robots.txt
User-Agent: *
Allow: /
Disallow: /private/

Sitemap: https://acme.com/sitemap.xml

إنشاء ملف Robots

أضف ملف robots.js أو robots.ts الذي يُرجع كائن Robots.

import { MetadataRoute } from 'next'

export default function robots(): MetadataRoute.Robots {
  return {
    rules: {
      userAgent: '*',
      allow: '/',
      disallow: '/private/',
    },
    sitemap: 'https://acme.com/sitemap.xml',
  }
}
export default function robots() {
  return {
    rules: {
      userAgent: '*',
      allow: '/',
      disallow: '/private/',
    },
    sitemap: 'https://acme.com/sitemap.xml',
  }
}

النتيجة:

User-Agent: *
Allow: /
Disallow: /private/

Sitemap: https://acme.com/sitemap.xml

كائن Robots

type Robots = {
  rules:
    | {
        userAgent?: string | string[]
        allow?: string | string[]
        disallow?: string | string[]
        crawlDelay?: number
      }
    | Array<{
        userAgent: string | string[]
        allow?: string | string[]
        disallow?: string | string[]
        crawlDelay?: number
      }>
  sitemap?: string | string[]
  host?: string
}

سجل الإصدارات

الإصدارالتغييرات
v13.3.0تم إدخال robots.