네이버 블로그 사이트맵 만들기
개요
네이버 블로그는 구글 검색이 잘 안되는 이유가 있다.
그럴땐 아래 사이트맵을 신청해서 등록하면 어느정도 해결이 된다.
그 이유를 정확히 파악한답치고 공개하게되면 네이버로부터 차단을 당하거나 불이익을 당할수 있기에 관련 내용은 공개하지 않는다.
하지만 네이버 블로그는 우리들도 다 알고 있듯 폐쇄형 블로그이다.
그렇기때문에 네이버 블로그의 내용이 구글 검색로봇에 의해 퍼져나갈때 차단되기때문에 결국 검색이 안되는 것이다.
아래 robots.txt 를 확인해보면 왜 구글에서 네이버 블로그가 검색이 안되는지 알 수 있다.
네이버 블로그 robots.txt
User-agent: Yeti
Disallow: /
User-agent: *
Disallow: /PostList.nhn
Disallow: /PostPrint.nhn
Disallow: /NBlogPostPreview.nhn
Disallow: /NBlogHidden.nhn
Disallow: /BlogInfo.nhn
Disallow: /PostExportDoc.nhn
Disallow: /PostPreview.nhn
Disallow: /NVisitor4Ajax.nhn
Disallow: /NVisitorgp4Ajax.nhn
Disallow: /NBuddyList.nhn
Disallow: /WidgetListAsync.nhn
Disallow: /socialapp/SocialAppAppBoxMyAppListAsync.nhn
Disallow: /PostList.naver
Disallow: /PostPrint.naver
Disallow: /NBlogPostPreview.naver
Disallow: /NBlogHidden.naver
Disallow: /BlogInfo.naver
Disallow: /PostExportDoc.naver
Disallow: /PostPreview.naver
Disallow: /NVisitor4Ajax.naver
Disallow: /NVisitorgp4Ajax.naver
Disallow: /NBuddyList.naver
Disallow: /WidgetListAsync.naver
Disallow: /socialapp/SocialAppAppBoxMyAppListAsync.naver
Disallow: /buddy/
Disallow: /export/
Disallow: /common/
Disallow: /post/
Disallow: /npost/
Disallow: /main/
Disallow: /guestbook/
Disallow: intro.nhn
Disallow: history.nhn
Disallow: comment.nhn
Disallow: intro.naver
Disallow: history.naver
Disallow: comment.naver
Disallow: /socialapp/
Disallow: /upload/
Disallow: /connect/
네이버 블로그가 구글에서의 수집 문제는 여러 원인으로 발생할 수 있지만, 제공해 주신 robots.txt 파일을 살펴본 결과, 여러 중요한 경로들이 크롤러에 의해 차단되고 있음을 확인할 수 있다.
이런 설정은 특히 네이버 블로그의 내용이 구글 검색 엔진에 의해 효과적으로 인덱싱되지 못하게 만들 수 있다.
사이트맵과 백링크 활용 전략
사이트맵 제출
사이트맵을 활용하는 전략은 구글과 같은 검색 엔진이 웹사이트의 구조를 이해하고 모든 페이지를 발견할 수 있도록 돕는다.
네이버 블로그가 다루는 페이지 중 인덱싱이 허용된 부분에 대해 사이트맵을 생성하고, 구글 서치 콘솔을 통해 제출하는 것이 좋다.
이는 검색 엔진이 허용된 페이지들을 더 쉽고 체계적으로 크롤링할 수 있게 도와줄 것이다.
그러나!! 이 부분에 콘솔을 통해 제출을 하려면 도메인 단위가 필요하므로 현재는 불가능하다.
하지만 이 방법과 비슷한 방법으로 사이트맵을 만들고 그 사이트맵으로 로봇(엔진)이 오도록 만들면된다.
그러면 사이트맵이 자연스럽게 로봇에 의해 주소가 수집이된다. 그 구조로 만들어진 사이트가 아래의 사이트매 클릭 사이트이다
백링크 전략
다른 사이트에서 네이버 블로그로의 백링크를 생성하는 것도 유용할 수 있다.
이러한 백링크는 페이지의 권위를 높이고 검색 결과에서의 가시성을 향상시킬 수 있다.
그러나, 백링크는 관련성 높고 신뢰할 수 있는 소스에서 자연스럽게 생성되어야 한다.
인위적으로 대량의 저품질 백링크를 생성하는 것은 오히려 검색 엔진의 패널티를 받을 수 있으니 주의해야 한다.
robots.txt 파일과 관련한 조언 (이 부분은 우리가 어떻게 할 수 없다)
검토와 수정
현재 robots.txt 파일이 매우 제한적이므로, 만약 더 많은 페이지를 검색 엔진에 노출시키고 싶다면, 일부 Disallow 규칙을 완화할 필요가 있다.
특히 중요한 콘텐츠가 포함된 페이지나 카테고리를 검색 엔진이 접근할 수 있도록 허용하는 것을 고려해 볼 수 있다.
User-agent 구별
User-agent: Yeti (네이버의 검색 엔진)에 대한 접근을 차단하고 있다.
만약 네이버 내에서의 검색 성능도 중요하다면, 이 부분을 재검토할 필요가 있다.
구글 등 다른 검색 엔진용 User-agent 설정도 마찬가지로 검토하여, 필요한 부분만 차단하고 나머지는 허용하는 방향으로 수정할 수 있다.
이러한 전략들을 통해 네이버 블로그의 검색 엔진 최적화를 개선할 수 있을 것이다.
추가적으로 구글 서치 콘솔 같은 도구를 사용하여 사이트의 인덱스 상태를 주기적으로 확인하고, 필요에 따라 조정하는 것도 중요하다.