ตัวสร้าง Robots.txt

สร้างไฟล์ robots.txt สำหรับเว็บไซต์ของคุณ ควบคุมการรวบรวมข้อมูลของเครื่องมือค้นหาด้วยกฎอนุญาต/ไม่อนุญาต การอ้างอิง sitemap และการตั้งค่าเฉพาะสำหรับ crawler

วิธีสร้างRobots.txt ไฟล์

  1. 1 เลือกuser agent (all robots, Googlebot, หรือ custom)
  2. 2 เพิ่มAllow และDisallow rules with specific paths
  3. 3 ป้อนsitemap URL to help crawlers find contentของคุณ
  4. 4 ตามต้องการ set crawl delay for rate limiting
  5. 5 คัดลอกgenerated robots.txt หรือ ดาวน์โหลดfile

เครื่องมือที่เกี่ยวข้อง

🔒 ผลลัพธ์ทันที เร็วกว่า AI ไม่ต้องสมัคร 100% ส่วนตัว

อัปเดตล่าสุด: 15 มกราคม 2569 · v2.1