ตัวสร้าง Robots.txt
สร้างไฟล์ robots.txt สำหรับเว็บไซต์ของคุณ ควบคุมการรวบรวมข้อมูลของเครื่องมือค้นหาด้วยกฎอนุญาต/ไม่อนุญาต การอ้างอิง sitemap และการตั้งค่าเฉพาะสำหรับ crawler
วิธีสร้างRobots.txt ไฟล์
- 1 เลือกuser agent (all robots, Googlebot, หรือ custom)
- 2 เพิ่มAllow และDisallow rules with specific paths
- 3 ป้อนsitemap URL to help crawlers find contentของคุณ
- 4 ตามต้องการ set crawl delay for rate limiting
- 5 คัดลอกgenerated robots.txt หรือ ดาวน์โหลดfile
เครื่องมือที่เกี่ยวข้อง
🔒 ผลลัพธ์ทันที เร็วกว่า AI ไม่ต้องสมัคร 100% ส่วนตัว
อัปเดตล่าสุด: 15 มกราคม 2569 · v2.1