반응형 robots.txt2 robots.txt에 의해 차단됨 - 구글 웹마스터도구 robots.txt에 의해 차단됨 이 뜻은 내 웹사이트 내에 있는 robots.txt 명령어가 구글에서 정보를 얻는것을 차단한다는 오류입니다. robots.txt 오류 문제에 대해서 알아봅시다. 보통 블로그 및 웹사이트는 특정한 이유 없이는 다른사이트를 거의 차단하지 않습니다. 본인이 html작업하는도중에 실수로 구글을 차단했을 가능성도 있습니다. 하지만 이러한 실수는 거의 없습니다. html 작업을 할줄 아시는 분이라면, 이유 없이 구글을 차단시킬 명령어를 입력할 이유도 없기 때문입니다. 삭제한 포스팅이 있는데 그것을 있다고 인식을 해서 계속 찾고, robots.txt 그것을 방해하고 차단한다고 생각할수도 있습니다. [구글에서 없는 삭제 한 포스팅을 계속 찾고 있음] 또 하나는 웹사이트 관리자만 들어갈.. 2022. 6. 13. 구글 Crawl-delay: 30 오류 본인이 글을 적으면서 URL 검사 + 색인 생성범위로 글을 적고 나서 몇번씩 검사를 해주셔야 합니다. 그 이유는 여기에 경고가 들어오고나 제외됨으로 인해서 본인의 포스팅이 검색해도 보이지 않는 현상이 있을수도 있기 때문입니다. 그 현상이 나타나지 않도록 오류를 찾아서 직접 수정 작업을 해주셔야 합니다. 그 중 하나로 Crawl-delay: 30 오류에 대해서 알아보겠습니다. 1. 구글 웹마스터도구를 등록하신다음에 URL 검사 => 색인 생성 범위 검사를 합니다. 제외됨이라는 항목에서 [사용자가 선택한 표준이 없는 중복 페이지] 오류가 있을것입니다. ROBOTS.TXT 차단 테스트 눌러서 오류가 무엇인지 확인을 해봅니다. 2. 보시는대로 Crawl-delay: 30 경고가 뜹니다. Crawl-delay: 30 2022. 6. 11. 이전 1 다음 반응형