Audit
진단만 합니다. 코드는 배포하지 않아요. 슬라이드 대신, 수정 항목별 매출 매핑을 가져갑니다.
- 스키마 그래프 진단 · 엔티티 관계
- 5개 엔진 AI 가시성 스캔
- 크롤링 + Core Web Vitals 점검
- 수정 항목별 매출 영향 추정
- 90일 우선순위 리미디에이션 로드맵
매출을 잃고 있는 브랜드를 위한 JSON-LD 아키텍처와 AI 검색 대응. 엔지니어가 직접 진단하고, 배포하고, 모니터링한다. 한 명의 엔지니어. 두 엔진 모두.
세 가지 협업 방식. 같은 엔지니어. 인계 없음.
컨설팅. 분석만. 코드는 배포하지 않습니다.
실행. 프로덕션 코드. 실제 변경.
운영. 상시 온콜 엔지니어링.
진단만 합니다. 코드는 배포하지 않아요. 슬라이드 대신, 수정 항목별 매출 매핑을 가져갑니다.
프로덕션 코드를 배포합니다. 스키마 아키텍처, 템플릿별 JSON-LD, 검증기를 통과한 구조화 데이터, CI 게이트와 사전·사후 측정까지.
상시 온콜 엔지니어링. 스키마는 시간이 지나면 망가집니다. 그걸 막습니다. 두 엔진 모두 깨끗하게 유지.
5일. AI 엔진 1개. 서면 리포트. $4,500 — 30일 이내 Audit 전환 시 100% 크레딧.
스키마는 엔지니어링이다. 그걸 파는 사람들 대부분은 코드를 짜지 않는다.
스키마는 시간이 지나면 망가진다. 리뷰는 출시되지만 aggregateRating은 한 번도 연결되지 않는다. CMS 업데이트가 BreadcrumbList를 깬다. 헬퍼도, 검증기도, 책임자도 없다. 리치 결과의 CTR은 경쟁사로 흘러간다.
AI 쪽도 같은 처방이 통한다. 견고한 @id와 sameAs가 답변 엔진이 근거로 삼을 단일 소스를 제공한다. 드리프트가 좁아진다. 인용이 안정화된다.
JSON-LD를 직접 작성한다. 헬퍼를 직접 만든다. PR을 직접 연다. 팀이 리뷰하고 머지한다. 에이전시도, 인계도, 슬라이드도 없다.
기존 크롤러는 구글이 공개한 명세에 대해 JSON-LD를 검증한다. 그러나 명세 통과가 곧 리치 결과 자격은 아니고, 답변 엔진의 추출은 애초에 그들의 설계 목적이 아니었다. RankLabs는 사이트를 직접 돌면서 모든 엔티티를 추출하고, 어느 템플릿에서 무엇이 빠졌는지 알려준다. 아래 터미널은 데모 타깃에 대한 실제 실행 결과다.
선별된 협업 사례. 계약상 필요한 경우 익명 처리.
템플릿별로 흩어져 있던 JSON-LD를 단일 해상 가능한 @graph로 마이그레이션. 목표: Google Shopping의 Product 리치 결과 복구, 롱테일 상품 쿼리에서의 Featured Snippet 회복, 그리고 부가 보너스로 AI 엔진의 엔티티 커버리지 정리. 현재 PR이 브랜치 프리뷰에 올라가 있고, 3분기까지 리치 결과 CTR과 AI 인용 점유율을 측정 중.
클라이언트 사이드 실험 300+ 건 (계속 누적 중). 동적 WordPress/Next.js 앱에 코어 경험을 깨뜨리지 않고 실험을 주입하기 위한 DOM-diffing과 MutationObserver 전략 설계. 5년간 PM·분석가와 함께한 프로덕션 CRO/MVT. 실험 근육은 항상 최신 상태.
자체 크롤러, 구조화 데이터 추출 파이프라인, 페이지 단위 스코어링, 필드 단위 스키마 검증을 구축. 같은 크롤에서 리치 결과 킬러와 AI 인용 차단 요인을 함께 잡도록 설계. 모든 클라이언트 협업의 진단을 떠받치는 역할. 만들기 전에 Screaming Frog, Botify, Sitebulb, Onely 스택을 다 써봤다.
통합 이전, 세 자매 사이트의 프런트엔드 리뱀프를 단독으로 주도. BI 팀과 함께 사이트 간 기술 SEO와 전환 실험. 대규모 트래픽 퍼블리셔 SEO: 스키마, 내부 링크 아키텍처, 페이지 속도, 크롤 예산, 랭킹 시그널. 퍼블리셔 스케일의 클래식 SEO가 실제로 어떻게 작동하는지 배운 곳, AI 검색이 카테고리가 되기 10년 전.
JSON-LD, 스키마 아키텍처, 그리고 AI 검색이 실제로 가져가는 데이터에 대한 공개 글.
ChatGPT, Perplexity, Claude, Gemini, Google AI Overviews는 각자 다른 방식으로 JSON-LD를 파싱합니다. 그 차이가 중요해요. 같은 @graph를 다섯 엔진에 모두 돌려보며 측정한 것.
PDP 4만 5천 페이지 규모 카탈로그에서 조용히 실패하는 필드 단위 JSON-LD 버그들. 각 버그는 그것이 죽이는 리치 결과, 당신을 떨어뜨리는 AI 엔진, 그리고 클라이언트에 모델링한 매출 영향과 매핑되어 있어요.
프로덕션의 스키마는 명백한 장애 없이 AI 엔진에 보이지 않게 됩니다. 클라이언트 협업 전반에서 측정한 리그레션 타임라인과, CI 게이트가 선택지가 아닌 이유.
SEO 리테이너가 누적 효과를 못 내고, AI 인용은 정체되고, 마지막 기술 점검은 아무도 안 읽는 슬라이드로 끝났다면 — 그건 콘텐츠 문제가 아닙니다. 엔지니어링 문제입니다. 진단한 엔지니어가 직접 고칩니다.