Robots.txt 생성기

웹사이트용 robots.txt 파일을 생성하세요. 허용/차단 규칙, 사이트맵 참조, 크롤러별 설정으로 검색 엔진 크롤링을 제어하세요.

Robots.txt 파일을 생성하기

  1. 1 사용자 에이전트를 선택하세요 (모든 로봇, Googlebot 또는 사용자 정의)
  2. 2 특정 경로와 함께 허용 및 차단 규칙을 추가하세요
  3. 3 크롤러가 콘텐츠를 찾을 수 있도록 사이트맵 URL을 입력하세요
  4. 4 선택적으로 속도 제한을 위한 크롤링 지연을 설정하세요
  5. 5 생성된 robots.txt를 복사하거나 파일로 다운로드하세요

관련 도구

🔒 즉시 결과, AI보다 빠름. 가입 불필요. 100% 프라이버시.

최종 업데이트: 2026년 1월 15일 · v2.1