📈

SEO를 개선하면 트래픽이 정말 증가할까?

Created
2021/12/21 09:51
Tags
Common
Frontend
Subtitle
내 코드는 회사에 기여하고 있는 중이긴 한 걸까요?
최근까지 꾸준히 SEO를 조금씩 개선 했다. 작업한 후에 트래픽이 늘어났는지, 혹은 다른 변화가 있는지 여부 등을 확인 할 필요가 생기면서 여러 지표들을 확인해야 했다. 이 때, 개발자의 영역이 아니라서인지... 자료를 찾기 힘들어서 이번 기회에 기록 겸 공유 차 작성해보려 한다.

️ DAU, MAU! 기준을 잡자

일일 활성 유저를 뜻하는 DAU (Daily Active Users), 월간 활성 유저를 뜻하는 MAU(Month Active Users)라고 한다.
오...... 그렇구나......
사실 단어가 뜻하는 바는 아는데, 많고 적고에 대한 경험치가 없다보니 이 수치가 잘하고 있는 것인지 판단하기 어려웠다. 때문에 몇 가지 기준이 될 법한 글들을 찾아보았다.
위의 글에서 처럼 앱에 대한 MAU에 대한 정보를 조회할 수 있었는데 다음과 같았다.
물론 서비스의 성격에 따라서 MAU라는 것이 더 잘 나오는 경우와 아닌 경우가 있겠지만 절대치만 두고 클래스를 나누자면 다음으로 나눌 수 있을 것 같다.
이는 서비스의 특징을 무시한 채 평가한 수치입니다. 예를 들면 쇼핑앱은 남녀노소 누구나 매일 매시에 사용하지만, 국가지원 직무평가 웹사이트같은 경우는 분기별로 직장인 만 사용할 것입니다. 이러한 특징 때문에 서비스의 성공/실패 와는 아무런 영향이 없습니다.
A레벨 ( 우리 아빠도 들어본 앱 ) - 100만 이상
B레벨 ( 내가 유명하다고 생각하는 앱 ) - 50만 이상
C레벨 ( 내가 알고 있는 앱 ) - 20만 이상
D레벨 ( 써본 적은 없지만, 들어 본적 있는 앱 ) - 10만 이상
위의 정보가 정확한 건지, 어떻게 측정되는 건지는 알 수가 없지만 단순히 비교해봤을 때는 메인 인강 서비스는 C~D레벨, 대외활동 서비스는 B~C레벨을 오락가락하는것 같다. ( 매달 수치가 다르기 때문 )
비교를 위해 우리 서비스는 GA로 측정한 값을 이용했다.
서비스 A의 수치
근데 내가 궁금한 건 우리 서비스가 어느 레벨인지가 아니다.
내가 6월 부터 시간 쪼개서 작업한 것들이 어떻게 변화를 만들어냈는가가 궁금한 것이다.

 SEO -약동의 유월. 무언가 바뀌었는가.

5월말 6월 초부터 작업을 시작했다. 작업 타임라인은 기억을 더듬자면 얼추 다음과 같다.

5월 말 ~ 6월 말

sitemap 및 robots.txt 작성 및 스케쥴링 자동화

6월말 ~ 7월 초

GSC, GA, 네이버 서치어드바이저 등 연동

7월 초 ~ 8월 초

메타 태그 최적화, 스키마 적용

8월 초 ~ 10월 중순

백링크 최적화, 성능 개선, 이미지 최적화, 오류 페이지 개선

10월 중순 ~

crawling budget 최적화, 타깃 키워드 등급 상승 및 리치스니펫 노출을 위한 유지 보수
이를 기준으로
1.
작년 대비
2.
같은 해 1~6월 대비 7~12월
여러 수치를 비교해보해보았다.

 2020년 대비 2021년 MAU 증감 차트

단순 MAU의 증감 여부로는 SEO를 평가하기 힘들었다.
작년에 비해서 MAU가 10% 에서 50%까지 모두 증가했지만 1~6월 대비 7~12월에 증감 수치가 더 많지 않았고, 증감의 크기는 매달 불규칙했다.
단순히 생각해봤을 때는 서비스 이벤트 기간이나 활동량이 많은 시즌이 매년 달라서 그 점이 더 크게 작용했다고 생각할 수 있었다.

구글 서치 콘솔과 네이버 서치 어드바이저라면?

단순 MAU가 아니라 검색엔진을 통해서 사이트에 접근한 유저 정보를 Google Search Console(GSC)와 네이버 서치 어드바이저에서 제공한다.
이는 이벤트성 문자나 백링크를 통해 ( 특히 우리 회사는 여러 서비스를 많이 운영해서 해당 경로가 많다. ) 접속한 경우를 제외 시킬 수 있기 때문에 훨씬 유용할 것이라 판단되었다. )
A 서비스에서 구글 검색 엔진을 통한 트래픽 변화량
B 서비스에서 구글 검색 엔진을 통한 트래픽 변화량
C 서비스에서 구글 검색엔진을 통한 트래픽 변화량
정확한 분석을 위해서라면 검색엔진만을 조회할 수 있는 검색엔진 내부 솔루션을 이용하는 것이 더욱 정확한 것을 확인 할 수 있었다.
네이버 서치어드바이저인 경우에는 노출/클릭 에 대한 비슷한 유형의 수치를 제공하는데, 이는 90일 까지만 제공하기 때문에 SEO작업 이전의 데이터는 찾아 볼 수 없었다 만약 SEO작업 계획이 있고 Before&After에 대한 유의미한 수치를 확인하고 싶다면, 주기적으로 데이터를 수집해두자

 키워드 노출 순위와 갯수

유저가 우리 사이트에 더 많이 접근 했다는 것은 어쨌든 “결과”에 가까운 일이다.
결과를 만들기 위해서는 “과정”도 최적화를 해야 하는데 이를 “키워드” 라는 수치가 많은 영향을 주리라 생각했다.
가령 “개발자 취업” 이라고 검색 했을 때, 경쟁 업체보다 상단에 노출 되는 것은 굉장한 일이지 않은가.
반대로 유사한 키워드를 통해 검색하더라도 검색엔진이 키워드를 보유하지 않아 우리 사이트가 노출 되지 않으면 그게 무슨 소용인가.
구글 서치 콘솔과 네이버 서치어드바이저에는 이러한 정보가 직접적으로 풍부하게 제공되지는 않았다. 대신 어떤 키워드를 통해 얼마만큼 유입되는지 간략한 정보는 확인 할 수 있었다.
가령 네이버 서치어드바이저는 다음과 같이 나타난다.

 때문에 다음 사이트를 추천한다.

요금은 비싼 대신에 하루 10회 도메인별 overview를 요청할 수 있고 pro버전으로 7일 무료 제공하기 때문에 잠깐 평가하기에는 적합했다. ( 별도로 해당 사이트로 우리 회사의 체급도 어느 정도 비교 가능하다. )
사실 위에서 평가한 MAU역시 검색하고픈 도메인은 모두 사용해볼 수 있다. 좋은 사이트
해당 서비스를 통해 6월을 기준으로 증가한 키워드수는 아래와 같다.
6월 대비 12월 A서비스에서의 증가량 ( + 700 )
6월 대비 12월 B서비스에서의 증가량 ( + 600 )
6월 대비 12월 C서비스에서의 증가량 ( + 4800 )
해당 키워드를 보유한 것만으로는 상단에 노출되지 않는다. 뿐만 아니라 불필요한 키워드는 도움이 되지 않는다.
때문에 키워드별 게재 순위 역시 중요한 지표이다. 이 경우에는 GSC의 키워드별 게재 순위를 엑셀로 뽑아 참고 했다.
뿐만 아니라 구글이 베타로 서비스 하는 Search Console Insights 에서는 내부에서 평가한 여러가지 자료를 제공한다. ( 이 때 GA와 연동하는 경우에 더 풍부한 데이터를 제공한다. )
현재 블로그 정보 한동안 글을 안썼더니 여러가지 수치들이 많이 떨어졌다.
게재순위는 컨텐츠에 키워드가 제대로 반영되어 있는지 메타태그 작업들이 잘 이루어 져 있는지가 기본 요소라고 한다.

 그 외 검색엔진을 풍부하게 만들기

검색엔진은 특정 태그들을 수집하면, 이를 풍부하게 만들어주는 여러가지 정보들을 제공한다.
이러한 정보들은 JSON+LD 라고 불리는 포맷으로 인해 전달 될 수 있다.
JSON+LD포맷을 요약하자면 다음과 같다.
JSON-LD(연결된 데이터를 위한 JavaScript 개체 표기법)는 검색 결과를 홍보하기 위해 웹사이트에서 기계가 읽을 수 있는 데이터를 생성하는 더 간단한 수단을 제공합니다.
간단히 말해서 Googlebot과 같은 검색 크롤러에 더 쉽게 색인을 생성할 수 있는 콘텐츠를 제공합니다.
기존 JSON 형식을 기반으로 개발자는 현재 JSON을 JSON-LD로 쉽게 변환하여 웹 사이트의 콘텐츠를 검색 엔진에 더 잘 설명할 수 있습니다. 그러면 검색 엔진이 웹페이지를 보다 효과적으로 이해하고 간소화된 웹 개발을 통해 콘텐츠를 보다 적절하게 표시할 수 있습니다.
JSON+LD 포맷이 없다면, 콘텐츠를 파악하는데 검색엔진이 더 많은 자원을 사용해야 하기 때문에 w3c에서 권장하는 포맷이라는 것이 글의 요지인거 같다.
페이지 소스 보기등을 활용하여, 실제 서비스에 어떻게 적용되는지 확인해볼 수 있다.
아래는 여러 서비스에서 적용되고 있는 스키마들의 종류이다.

제품/리뷰 스키마

스키마를 적용하면 구글 검색 엔진에 다음과 같이 노출될 수 있다.
제품/ 리뷰 스키마 적용
아래는 해당 스키마를 적용하는 코드이다.
<script type="application/ld+json"> { "@context":"https://schema.org", "@type":"Book", "name" : "지적 대화를 위한 넓고 얕은 지식 1", "image":"https://image.yes24.com/goods/86545658/XL", "description" : "지적 대화를 위한 넓고 얕은 지식 1, 한 권으로 현실 세계를 통달하는 지식 여행서, 채사장, 웨일북, 판매가 14,400원(10% 할인), 포인트 800원(5% 적립), “타인과 지적 대화를 하기 위해서 반드시 깔려 있어야 하는 가장 기본 지식” 우리 시대...", "genre":"교양으로 읽는 인문", "keywords":"지적 대화를 위한 넓고 얕은 지식 1,북클러버의선택,방탄책방 ,방탄RM이추천한책,랜덤북자판기 ,교양을쌓을교양,한 권으로 현실 세계를 통달하는 지식 여행서, 채사장, 웨일북, 지대넓얕, 9791190313186, 11903131899791190313186,119...", "aggregateRating": { "@type": "AggregateRating", "ratingValue": "9.5", "reviewCount": "178", "bestRating": "10", "worstRating": "0" }, "author": { "@type":"Person", "name":"채사장" }, "publisher": { "@type":"Organization", "name":"웨일북" }, "url": "http:/www.yes24.com/Product/Goods/86545658", "workExample" : [{ "@type": "Book", "isbn": "9791190313186", "bookFormat" : "https://schema.org/Paperback", "datePublished" : "2020-02-01", "potentialAction":{ "@type":"ReadAction", "target":{ "@type":"EntryPoint", "urlTemplate":"http:/www.yes24.com/Product/Goods/86545658", "actionPlatform":[ "https://schema.org/DesktopWebPlatform" ] }, "expectsAcceptanceOf":{ "@type":"Offer", "Price":"14400", "priceCurrency":"KRW", "availability": "https://schema.org/Paperback" } } }] } </script>
HTML
복사

연관 채널 등록

관련된 미디어 혹은 연관 채널 노출 예제
아래는 해당 스키마를 적용하는 코드이다.
<script data-n-head="ssr" type="application/ld+json"> { "@context":"http://schema.org", "@type":"Person", "name":"Naver Search Advisor", "url":"https://searchadvisor.naver.com", "sameAs":[ "https://blog.naver.com/naver_webmaster", "https://tv.naver.com/webmasters" ] } </script>
HTML
복사

브레드 크럼

아래는 해당 스키마를 적용하는 코드이다.
<script type="application/ld+json"> { "@context": "https://schema.org", "@type": "BreadcrumbList", "itemListElement": [{ "@type": "ListItem", "position": 1, "name": "나무위키:대문", "item": "https://namu.wiki/" },{ "@type": "ListItem", "position": 2, "name": "토트넘 홋스퍼", "item": "https://namu.wiki/w/토트넘 홋스퍼 FC" },{ "@type": "ListItem", "position": 3, "name": "2021-22 시즌", "item": "https://namu.wiki/w/토트넘 홋스퍼 FC/2021-22 시즌" }] } </script>
HTML
복사
이 때, 재미있는 이슈가 있었는데 JSON+LD가 허용하는 lexical 공백 수가 Javascript보다 적다. 가령 에디터같은 곳에서 스키마를 작성하는데 공백이 허용하지 않는 아스키코드로 들어가는 경우가 생겨버려서 에러가 발생할 수 있다.
두 코드의 차이는 white space와 non-breaking space
16비트로 보면 확인 할 수 있다.
처음엔 멘붕이였는데, 다행히 스키마 작업중에 수학 공부에 열중일 때라 진법 전환에 한창이여서 바로 떠올릴 수 있었다

 결론

MAU, 키워드 노출, 그 외 검색엔진을 풍부하게 만들기 모두 제대로 적용되었음을 확인 할 수 있었다.
이 때, MAU와 키워드 노출의 상승은 특히 정보성 컨텐츠가 많은 서비스에서 특히 좋은 상승세를 보였다.
이 때 정보성 컨텐츠(Information Contents)라 하면 제품 리뷰등의 컨텐츠이다. 이는 상품 리스트등의 상업적 컨텐츠(Commercial Contents)와 대조적이다.

 목표 설정 및 경쟁사와의 비교

이제 앞으로 어떤 개선을 어떻게 더 개선 할 지에 대한 목표와 방법을 정해보자.
이 때, 긍정 혹은 부정을 평가하기 위한 기준치를 위해 검색 엔진의 연관 키워드 기준 경쟁사 대비 어떤 결과를 만들어냈는지를 기준점으로 설정했다.
설정 이유로는 다른 데이터에 비해 타 사이트도 접근이 용이한 데이터라는 점, 목적이 매출이 아닌 사이트의 성장 동향을 파악하기 위함이기 때문이다.
이를 통해 2022년 대비해야 할 작업들을 미리 예측하고, 현재 사용중인 자원에 대한 사용량에 대한 점검을 목표로 함. 뿐만 아니라 다른 팀에 잠재적인 경쟁사 및 이슈를 발견 할 수 있는 정보 전달도 이루어 질 수 있음을 기대할 수 있다.

Organic Keyword

Organic Keyword란 광고/상업적 노출을 제외한 순수한 검색엔진 노출량을 의미함.

 Shared Keywords: 생각치 못한 라이벌 `N*`

구글 및 네이버등 검색엔진의 키워드를 바탕으로 shared keyword 중인 경쟁사들을 파악할 수 있었다.
이 때, 가장 많은 검색어 키워드를 공유 중인 경쟁사는 전혀 예상치도 못한 가명 N* 서비스로 로 확인 됨.
각각의 경쟁사와 공유중인 키워드의 수는 다음과 같았다.
C*사 약 1100개
H*사 약 총 948개
C*사 약 총 645개
L*사 약 총 439개

 Keywords Gap: 강력한 커뮤니티의 힘

키워드는 크게 두가지 수치를 구분해서 볼 수 있다.
첫번째로는 키워드의 절대량. 키워드의 절대량이 많다는 것은 검색 엔진에 다양하고 많은 키워드로 사이트를 노출 시킬수 있다는 의미이기 때문이다.
키워드의 절대량은 의미있는 키워드만을 포함하지 않음을 인지하고 있어야 함. 가령 “악", “영상 에러”, “mp3” 등과 같은 서비스의 컨텐츠와 무관한 키워드 역시 포함 되어 있음.
두번째로는 키워드 랭킹. 키워드 랭킹이 경쟁사보다 높다는 것은 같은 키워드로 검색 시에 검색 엔진에 경쟁사 보다 상단에 노출이 된다는 것을 의미한다.
때문에 키워드는 많은 양도 중요하지만 키워드 랭킹이 더 중요한 요소라고 판단된다.

 키워드 절대량

키워드 절대량은 사이트의 규모와 사이트 내 텍스트의 절대량, 정보성 컨텐츠의 양 그리고 SEO의 Sitemap 관리로써 이루어짐.

 키워드 랭킹

키워드 랭킹은 마케팅 전략에 따른 메타 태그의 설정, 지속적인 SEO 관리로써 이루어진다.
아래 두 테이블은 타 경쟁사를 포함한 공통된 키워드의 랭킹을 보여주고 있음.
* 도메인 아래 숫자 = 순위 ( N등 으로 이해할 수 있음 가령 1은 검색엔진의 최상단 노출 ) * Volume = 1년간 검색된 1개월 평균 검색어량 ( 110이라면 1년간 총 1320번의 검색이 이루어졌고, 이를 12로 나눈 값 )
A서비스 기준 상위 노출 검색 키워드
공통 키워드1 https://community.A.com/게시판/1096090
공통 키워드2 https://community.A.com/게시판/1096090
공통 키워드3 https://community.A.com/게시판/1105018
공통 키워드4 https://community.A.com/게시판/1165123
공통 키워드5 https://community.A.com/게시판/1147054
공통 키워드6 https://community.A.com/게시판/1106088
2021년 A서비스는 특정 키워드를 중심으로한 키워드가 타사 대비 높은 순위를 보유하고 있음.
이 때, 검색어 관련 노출 도메인은 모두 커뮤니티로 나타남.
A서비스 기준 하위 노출 검색 키워드
키워드 1 https://www.A.com/search?q=abc
키워드 2 https://www.A.com/content/18299
키워드 3 https://www.A.com/content/
키워드 4 https://www.A.com/content/18299
키워드 5 https://www.A.com/content/11505
키워드 6 https://www.A.com/free/contents/15181
키워드 7 https://community.A.com/게시판/1163471
키워드 8 https://www.A.com/content/12340
경쟁사 대비 낮은 랭킹을 가진 키워드는 다음과 같음.
이 때, 공통점은 대부분의 경우에서 노출된 키워드가 서브도메인이 커뮤니티가 아닌 A서비스 컨텐츠 혹은 검색결과 창이였음.
⇒ 즉, 커뮤니티로부터 키워드가 잡히지 않는 경우 대부분 낮은 검색 순위를 기록하고 있었음을 알 수 있음. 이를 통해 정보성 컨텐츠가 높은 키워드 랭킹에 더 쉽게 차지 할 수 있음을 예상해 볼 수 있음.
그 외 해당 검색어를 보유중인 사이트는 “네이버 블로그”, “티스토리", “브런치", “잡코리아”, “블라인드", “교보문고" 등이 있었음.
Organic Research

 Domain Overview: 정보 데이터 기반 컨텐츠의 폭팔적인 성장력

키워드를 통해 경쟁사를 파악할 수 있었다. 이를 통해 경쟁사 대비 A서비스의 트래픽을 분석한다.
일반적으로 정보 데이터 기반 컨텐츠를 보유한 사이트들이 많은 성장을 했다. 이는 N*community.A를 통해 확인 할 수 있다. N* 는 질문 커뮤니티를 적극 활용하여 2021년 상반기 대비 하반기 2배에 가까운 Organic Traffic 을 생성하였다. N* 역시 한 해동안 4.5배의 성장을 만들어냈다. 추후에 확인 가능하듯이 상업적 페이지의 양이 많은 www.A.comH*.com 사이트 등과 대조적이다.

 2년 간 Oranic Traffic 변화량

Oranic Traffic은 유기적 검색(광고를 제외한)을 통한 트래픽만을 조회한다. MAU와는 다르며 A서비스는 MAU는 메인이 10만 커뮤니티가 7만 5천 정도를 기록하고 있다.
이 때, A 서비스의 Subfoldersboard-type , aboard-type2 과 같은 정보성(컨텐츠 기반) 페이지가 높은 트래픽을 보여준다. N*사 같은 경우에는 question 페이지가 압도적으로 트래픽이 많다. 이에 반면 H*C*로그인 이후 마이페이지 혹은 컨텐츠 재생과 같은 이미 결제된 페이지의 방문자수가 많다.
* Top Pages : 동적인 컨텐츠가 존재 하지 않는 페이지. 주소 뒤에 추가적인 값이 미존재 ( 일반적으로 메인, 마이페이지, 로그인 등)
* Subfolders : 동적인 컨텐츠가 존재 하는 페이지. 주소 뒤에 추가적인 값이 존재 ( 일반적으로 게시글, 강의, 도서 등 )

 Traffic Analytics: 검색엔진은 훌륭한 마케팅도구가 될 수 있다.

 트래픽 타입별 경로

Direct는 문자발송등과 같은 웹페이지 외에서 발생된 접근과 링크를 통하지 않은 직접 접근을 의미한다. Referral은 다른 사이트의 추천 혹은 링크들을 통해서 접근한 트래픽을 의미한다. Search는 구글 혹은 네이버와 같은 검색엔진을 통한 트래픽을 의미한다. Social은 페이스북, 인스타그램, 카카오톡/스토리, 블로그 등 소셜 채널을 통해 사이트에 들어온 트래픽을 말한다. Paid 는 구글 애드센스를 통해서 들어온 트래픽을 의미한다. 각각의 트래픽 타입은 GA source standard reports 를 기준으로 작성되었으며 누락된 정보는 있을 수 있다. 수치를 통해 “검색엔진을 통한 트래픽 유입”은 N* 사와 같이 충분히 효과적인 영향을 줄 수 있음을 파악할 수 있다는 점을 확인 할 수 있다.
아래는 2021년 하반기 (6월 ~ 12월 ) 트래픽 타입 별 경로 나타낸다.
전통적인 사이트의 트래픽 비율
C사의 트래픽 비율
Direct 가 50퍼센트 이상 차지하는 전통적인 컨텐츠 사이트와 달리 Search 의 수치가 다른 수치의 절반 이상을 차지 하고 있다.

 2022 Next Architecture: 집중해야 할 성장 요소

지금까지 키워드별 경쟁사를 발견하고, A서비스의 성장 추세를 파악했다.
이를 통해 2022년 어떤 과제를 수행하면 좋을지 예측해본다.

 성능

최우선 순위는 분명히 아니다. Lighthouse 기반 경쟁 사이트 대비 이미 높은 점수를 보유 중에 있다. * CPU, Memory 등의 자원 측정은 여기서 제외 되었다. 때문에 장애 관리등 심층적인 확인은 필요하다. * 2nd January, 2022 기준
좌측의 A서비스 우측의 경쟁사중 가장 높은 점수를 가진 서비스
⇒ 고로 사이트 장애로 이어지지 않을 정도로의 퍼포먼스 유지 관리만 있으면 충분하다는 판단이다.

 키워드 전략 수립

현재 키워드에 대한 어떠한 전략도 적용되어 있지 않다. 하지만 지금까지와 달리 키워드 전략에 대한 고민을 할 필요가 있다. 예제를 통해 왜 필요한지 살펴 보자.

 로그인이 강제 되지 않는 페이지

일반적으로 로그인이 필요한 페이지는 검색엔진에 노출되지 않는 경우가 많다. 일반적으로 컨텐츠에 접근 할 시에 알럿 이후에 리다이렉트 를 강제하기 때문에 검색엔진 역시 접근할 수 없는 페이지이기 때문이다. 이 때 리다이렉트를 강제하는 것 대신에 로그인 팝업과 질문만 노출 시켜 로그인/회원가입 페이지를 유도하는 방식으로 만든다면 검색엔진은 로그인 페이지로 넘어가지 않은 채 해당 페이지의 질문에 포함된 키워드를 바탕으로 크롤링을 할 수 있게 된다.

 SEO에 적절한 태그 사용

SEO에서 적절한 태그와 태그 내 키워드 사용이 중요하다.
A 서비스의 Organic Search 기준 네이버 33% 대비 구글 66% 11월 MAU 기준 네이버 11% 대비 구글 22%로 구글 검색결과는 무시할 수 없는 수준이라고 볼 수 있다.
때문에 노출시키고 싶은 컨텐츠가 적절히 검색엔진에 노출되는 것이 필요하다.

1. 구글 검색 엔진에서의 태그 및 리소스 우선순위

1.
<title> 태그는 가장 높은 색인 점수를 가진다. 이 때문에 페이지(컨텐츠)별 title 적용은 아주 중요하다.
2.
<meta name=”description” /> 태그는 <title> 다음으로 높은 색인 점수를 가진다. 이 때, <title>에 없는 키워드를 사용할 시에는 오히려 신뢰성없는 컨텐츠로 판단하고 색인 점수에 마이너스를 받을 수 있다.
3.
<meta name=”keywords” /><body /> 가 그 다음으로 높은 색인 점수를 가진다. description과 마찬가지로 title과 유사한 키워드가 많을 수록 유리하다. 하지만 title과 description과 달리 효과가 뛰어나지 않다.
4.
이미지 alt 속성은 생각보다 영향력이 적다. 오히려 많은 이미지 사용은 좋은 색인 점수를 가지지 않는 경우가 많다. 하지만 그렇다고 사용하지 말라는 것은 아니다.
5.
페이지 속도는 색인 생성에 많은 영향을 주지 않는다.
6.
도메인의 신뢰성은 검색결과 상단 노출에 아주 중요한 역할을 한다. 때문에 robots.txt와 sitemap.xml은 주기적으로 관리해야 할 필요가 있다.
결론: 위의 기준을 바탕으로 이벤트 페이지에 해당하는 description 및 keywords가 신뢰성없는 컨텐츠로 판단하여 색인 점수에 감점을 한 사례로 분석해볼 수 있다.

2. 네이버 검색 엔진에서의 태그 및 리소스 우선순위

네이버는 태그보다 백링크 특히 “신뢰가 높은 사이트”의 백링크가 가장 높은 점수를 평가하는 것으로 보인다.
이 때, 신뢰성 높은 사이트는 “블로그”와 “카페", 특히 네이버가 신뢰할 수 있는 블로그와 카페인것으로 확인 된다. 아직 이벤트페이지의 메인이 빡공스터디로 걸려있는 이유에 대해 정확하게 분석하지 못했지만, 특별한 사이트 등록작업을 하지 않았다면 “신뢰가 높은 사이트”의 백링크가 가장 유력하다고 판단된다.
그 외에 태그 및 리소스의 우선순위는 구글과 동일하다.
⇒ 검색엔진은 유저에게 가장 신뢰할 수 있는 페이지를 전달하는 것을 목표로 한다. 서비스마다 신뢰의 기준은 충분히 다를 수 있고 이를 분석하여 의도한 대로 노출 시킬 수 있도록 하는 것이 중요하다.

마무리

SEO 작업만 족히 4~5개월은 한 거 같다. 회사에서 SEO를 위한 업무 시간을 따로 배정해주진 못해서 시간 날때마다 짬짬이 했긴 했지만... 이렇게 많은 기간동안 작업했구나.
다행히 눈에 보이는 결과들이 보여서 다행이라는 생각이 든다.
하지만 SEO는 끊임없이 보살펴야 한다.
불필요하게 인덱싱하는 것들은 제거하고 에러가 나는 페이지도 noindex 혹은 301 permanently moved 도 해주어야 한다. 에러 수치를 줄이고 키워드 관리를 하다 보면 리치 스니펫 같은 것도 적용 된다고 하니, 사이트 유지관리에 열심히여야 한다.
리치 스니펫 예시
그러니까... 제길... 유지보수해야 할 께 늘었다. 기계한테 시킬 방법을 또 찾으러 가야겠다.
코딩이란 내 손으로 일을 계속해서 만드는 것이 아닐까...?
- 끝 -