Robots.txt 생성기
웹사이트용 robots.txt 파일을 생성하세요. 허용/차단 규칙, 사이트맵 참조, 크롤러별 설정으로 검색 엔진 크롤링을 제어하세요.
Robots.txt 파일을 생성하기
- 1 사용자 에이전트를 선택하세요 (모든 로봇, Googlebot 또는 사용자 정의)
- 2 특정 경로와 함께 허용 및 차단 규칙을 추가하세요
- 3 크롤러가 콘텐츠를 찾을 수 있도록 사이트맵 URL을 입력하세요
- 4 선택적으로 속도 제한을 위한 크롤링 지연을 설정하세요
- 5 생성된 robots.txt를 복사하거나 파일로 다운로드하세요
관련 도구
🔒 즉시 결과, AI보다 빠름. 가입 불필요. 100% 프라이버시.
최종 업데이트: 2026년 1월 15일 · v2.1