경쟁사 분석 3~4시간이 12분으로. 월 $200짜리 기술 감사 도구가 프롬프트 하나로. SEO 에이전시에 매달 $5,000~$10,000 내던 시대, 끝이 보이기 시작했어요.
이게 뭔데?
Claude Code를 SEO 데이터 커맨드 센터로 쓰는 방법이에요. 핵심은 단순해요 — Google Search Console, GA4, Google Ads의 데이터를 JSON 파일로 뽑아서 프로젝트 폴더에 넣으면, Claude Code가 여러 데이터 소스를 동시에 읽고 크로스 분석해줘요.
Search Engine Land의 Will Scott(디지털 마케팅 에이전시 대표)이 이 워크플로우를 처음 체계화했어요. "나는 개발자가 아니다. 에이전시를 운영한다. 그런데 Claude Code가 데이터를 다루는 가장 빠른 방법이 됐다"는 게 그의 평가예요.
기존 SEO 도구(Semrush, Ahrefs 등)는 데이터를 보여주지만, 여러 소스를 합쳐서 결론을 내리는 건 여전히 사람이 스프레드시트로 해야 했어요. Claude Code는 그 수작업을 자연어 질문 한 줄로 대체해요.
별도로 Ruben Dominguez는 Claude Cowork(데스크톱 앱 버전)에서 SEO 워크플로우를 스트레스 테스트하며 15개의 프롬프트를 6개 카테고리로 정리했어요 — 경쟁 분석, 키워드 전략, 기술 감사, 콘텐츠 최적화, 로컬 SEO, 백링크·리포팅. 그 결과? "중급 SEO 에이전시가 월 $5K~$10K에 해주는 것과 동등한 수준의 결과물"이라는 평가예요.
뭐가 달라지는 건데?
기존 SEO 워크플로우의 가장 큰 병목은 "탭 스위칭"이에요. GSC에서 키워드 데이터 뽑고, GA4에서 트래픽 데이터 뽑고, Google Ads에서 검색어 리포트 뽑고, 스프레드시트에서 VLOOKUP으로 합치고… 데이터는 이미 있는데 합치는 데 반나절이 가요.
Claude Code 셋업 후에는 이런 질문을 자연어로 던지면 돼요:
"GSC 쿼리 데이터와 Google Ads 검색어를 비교해줘. 이미 오가닉 순위가 높은데 광고비를 쓰는 키워드를 찾고, 광고만 있고 오가닉이 전무한 키워드도 찾아줘."
— Will Scott, Search Engine Land
한 고등교육 클라이언트에서 이 분석을 돌렸을 때의 결과:
| 발견 항목 | 건수 | 의미 |
|---|---|---|
| 광고비 낭비 키워드 | 2,742개 | 노출만 되고 클릭 0인 검색어 |
| 광고비 절감 기회 | 351개 | 오가닉 1~5위인데 광고도 돌리는 중 |
| 유료 증폭 후보 | 33개 | 오가닉 강한데 광고가 없는 키워드 |
| 콘텐츠 갭 | 41개 | 광고만 있고 오가닉 콘텐츠 전무 |
이 분석에 걸린 시간? 약 90초. 같은 작업을 수작업으로 하면 오후 반나절이에요.
| 기존 SEO 워크플로우 | Claude Code SEO | |
|---|---|---|
| 데이터 통합 | CSV 다운로드 → 스프레드시트 VLOOKUP | JSON 파일 → 자연어 질문 |
| 크로스소스 분석 | 플랫폼별 수동 비교 (반나절) | 90초 (유료-오가닉 갭 등) |
| 대시보드 | Looker Studio 빌드·유지보수 필요 | 대시보드 불필요, 질문으로 해결 |
| 추가 질문 | 분석 처음부터 다시 | 후속 질문으로 즉시 심화 |
| 월간 리프레시 | 클라이언트당 2~3시간 | 클라이언트당 약 20분 |
| AI 검색 가시성 | 별도 도구 필수 | SERP API 데이터 통합 분석 가능 |
특히 에이전시처럼 클라이언트가 여러 개인 경우 효과가 극적이에요. 클라이언트당 분석 시간이 2~3시간에서 20분으로 줄면, 같은 팀 규모로 3~4배 많은 클라이언트를 커버할 수 있으니까요.
기술 감사도 자동화된다
Synscribe는 Claude Code를 활용해 스키마 마크업 생성, hreflang 태그 검증, robots.txt 작성, htaccess 리다이렉트 규칙, GSC용 정규식 필터 등 7가지 기술 SEO 작업을 자동화하는 방법을 문서화했어요. 주당 15시간 이상의 수작업을 줄인 사례도 있다고 해요.
핵심만 정리: 시작하는 법
- Google Cloud 서비스 계정 만들기
Google Cloud Console에서 프로젝트를 만들고, Search Console API와 GA4 Data API를 활성화해요. 서비스 계정을 만들어 JSON 키 파일을 다운로드하세요. 이 계정 이메일을 GSC와 GA4 속성에 뷰어로 추가하면 인증 끝이에요. - 데이터 페처(fetcher) 셋업
Claude Code에 "GSC에서 최근 90일 상위 1,000개 쿼리를 뽑는 Python 스크립트를 만들어줘"라고 하면 알아서 작성해줘요. API 문서를 읽을 필요가 없어요. GA4, Google Ads도 같은 방식으로요. - 클라이언트 설정 파일 작성
JSON으로 도메인, GSC 속성 URL, GA4 속성 ID, Ads 고객 ID, 업종, 경쟁사를 정리해요. 이 파일 하나가 Claude Code의 분석 맥락이 돼요. - 데이터 수집 → 자연어 분석
python3 run_fetch.py --sources gsc,ga4,ads한 줄로 데이터를 수집하고, Claude Code에서 "유료-오가닉 갭 분석해줘" 같은 질문을 던지세요. 최초 셋업부터 첫 분석까지 약 35분이에요. - AI 검색 가시성 레이어 추가 (선택)
Bing Webmaster Tools(무료, 유일한 1st-party AI 인용 데이터)로 시작하고, DataForSEO AI Overview API(쿼리당 약 $0.01)나 SerpApi(월 $75~)를 추가해요. AI 인용 데이터를 GSC 데이터와 교차 분석하면 "오가닉은 강한데 AI 검색에서 빠진 페이지"를 찾을 수 있어요.
Claude Code가 대체하지 못하는 것
전략적 판단(클라이언트의 비즈니스 맥락, 경쟁 역학, 우선순위 결정)은 여전히 사람의 영역이에요. 그리고 LLM은 가끔 자신감 넘치는 틀린 숫자를 내놓아요. 클라이언트에게 보내기 전에 반드시 원본 JSON과 대조 확인하세요 — "주니어 분석가의 결과물 리뷰하듯" 접근하라는 게 실무자들의 공통 조언이에요.




