전 직장까지 2년이 채 안되는 기간동안 Recruiting Operations Specialist로서의 커리어를 쌓아왔는데요. 더 많은 경험을 통해 시야를 넓히며 성장해보고 싶은 마음에 스타트업으로 이직, 리크루터로 근무한지도 이제 딱 1년이 되어갑니다. 에이블리에 합류한 2021년 8월 당시 리크루팅팀에 팀원은 저를 포함하여 두 명 뿐이었습니다. 그럼에도 회사는 너무나 빠르게 성장해서 많은 분들을 채용해야했고, 그러다보니 채용 전형 운영에 많은 시간과 에너지를 쏟았습니다.
감사하게도 올 상반기에 많은 분들이 리크루팅팀에 합류해주시면서, 이제 ‘더 적은 일’을 전보다 더 디테일하게 챙겨보고 있습니다. 그간 신경을 쓰지 못했던 여러 영역 중 채용 데이터 분석에 도전했고, 데이터에 기반하여 의사결정을 내리고 액션 아이템을 고민해볼 수 있는 환경을 만들어가고 있습니다.
채용 담당자 분들께서 데이터에 대한 중요성은 이미 알고 계시지만, ‘어떤 데이터’를 ‘어떻게’ 봐야하는지가 큰 허들로 느껴질겁니다. 저 역시도 데이터 분석을 위한 툴이나 스킬 없이는 불가능하지 않을까 반신반의하며 시작했던 기억이 있습니다. 이번 글에서는 채용 데이터를 전혀 보지 않고 있던 팀에서 어떤 데이터를 보며 고민해왔는지, 데이터 분석에 도전한 그간의 여정을 공유해보고자 합니다.
Pipeline Data
리크루터에게 기대하는 업무 영역이 참 넓지만, 그중에서도 파이프라인을 관리하는 것이 가장 중요한 업무라고 생각합니다. 담당 포지션의 파이프라인 상황을 항상 살펴보고, 후보자 유입이 적절한지, 어느 경로로 들어온 후보자가 유효한지, 채용 프로세스는 너무 길지 않은지, Bottleneck은 없는지를 고민해야 합니다. 포지션을 오픈한 순간부터 유입된 후보자의 진행 상황이 담긴 파이프라인 데이터를 통해 다양한 전략을 구상해볼 수 있을 거란 기대를 품고 전형별 후보자 수, 전형별 합격률, 전형별 리드타임 등을 확인해보면서 왜 빠르게 채용이 되지 않고 있는지 원인을 고민해하기 시작했습니다.
Pipeline 데이터 예시 (1): Google Data Studio 활용
- 전형별 후보자 수
먼저 서류 단계부터 최종 인터뷰, 오퍼 단계까지 해당 포지션에 지원한 후보자 수 데이터를 살펴봤습니다. 포지션마다 상황이 많이 달랐는데요. 지원자가 많았음에도 채용이 잘 되지 않고 있던 포지션도 있고, 처음부터 후보자 Pool 자체가 타 포지션에 비해 적은 포지션도 있었습니다.
전자의 경우 유효하지 않은 채널에서 지원자가 많이 들어왔거나 프로세스 상 비효율 때문에 중도 이탈이 많았을 수 있을 거라 생각했습니다. 또는 인터뷰어가 갖고 있는 bar가 너무 높기 때문일 수도 있기에, Hiring Manager 및 인터뷰어와 감도를 맞추는 작업을 진행했고, 그 과정에서 디브리프 단계를 도입하게 되었습니다.
후자의 경우 JD나 직무명이 애매해서 유효한 후보자가 적을 수도 있고, 채용 채널을 잘 활용하지 못했을 수 있을 거라 예상했습니다. 더 다양하고 유효한 채널이 없는지 점검했고, 통용되는 언어로 JD와 직무명을 업데이트하며, 이를 바탕으로 다이렉트 소싱에도 도전했습니다.
- 전형별 합격률
포지션별로 각 stage마다 합격률이 어느정도인지 점검했습니다. 서류 합격률이 너무 낮은 포지션은 Bar가 비현실적으로 높은 것은 아닐지, 허수지원자가 너무 많은 건 아닐지 살펴봤습니다. 더불어 합격률 데이터를 바탕으로 역산해보면 1명을 채용하기 위해 몇 명의 서류 지원자가 필요한지를 대략적으로 산출했습니다. 이를 바탕으로 후보자 Pool을 늘리는 등의 액션 아이템을 도출해낼 수 있습니다. (다만, 이러한 계산법이 100% 신뢰할 수 있진 않으니 유의해야 합니다!)
일본사업을 담당할 마케터를 채용하면서 해당 팀 리더가 진행하는 1차 인터뷰에 합격한 후보자의 최종 인터뷰 불합격률이 타 포지션에 비해 유독 높은 사례가 있었습니다. 두 인터뷰어 분의 스코어카드를 확인하고 논의해본 결과, 두 분께서 중점적으로 바라보는 역량이 다르다는 점을 확인했습니다.
일본어 역량과 마케팅 역량을 모두 갖춘 후보자가 많지 않았고, 현 상황에서는 일본어 역량이 다소 부족해도 마케팅 역량이 있는 분이 오시면서 팀을 키워야했기에, 두 역량 사이에서 팀에 우선적으로 필요한 사항을 고민하고 얼라인했습니다. 이렇듯 전형별 합격률을 보고 유독 높거나 낮은 값이 있다면, 원인이 무엇인지 살펴볼 필요가 있고, 문제 해결의 키포인트를 캐치해볼 수 있음을 배웠습니다.
Pipeline 데이터 예시 (2): Google Spreadsheet 활용
- 전형별 리드타임
리드타임이 길어지다보면 우수한 인재가 타사 프로세스를 마무리하여 중도 포기를 선언하는 케이스가 발생합니다. 어떤 채용 단계에서 병목현상이 발생하는지 반드시 점검이 필요하다고 느꼈습니다. 예를 들어 코딩테스트의 리드타임이 너무 길다면, 코딩테스트 일정 어레인지 / 코딩테스트 진행 기간 / 결과 검토 및 추후 단계 대상자 선정 등 다양한 원인이 존재할 수 있으니 유의깊게 살펴봐야 한다고 생각했습니다.
백엔드 엔지니어 포지션에서 진행하고 있는 사전과제에 생각보다 오랜 시간이 소요되고 있음을 데이터를 통해 확인했습니다. 프로젝트성 과제를 진행하다 보니 난이도가 있는 편이라 과제 수행에 시간을 넉넉히 드리고 있고, 현업에서 후보자가 제출한 과제를 리뷰하는 데에도 많은 시간이 소요되고 있습니다. 다만 알고리즘 위주의 코딩 테스트는 변별력이 없다는 현업의 의견을 수렴하여 간소화된 버전의 사전과제로 개편 작업을 진행하고, 문제 형태나 난이도에 맞게 전형 일정을 세움과 동시에 효율적으로 운영하는 방식을 고민하고 있습니다.
Direct Sourcing
특정 포지션의 파이프라인 상황이 좋지 않거나 빠른 채용이 필요한 경우, 에이블리는 여러 리크루터가 한 포지션의 소싱에 몰입하고 있습니다. 실제로 백엔드 엔지니어, 프로덕트 디자이너의 경우 채용 시급도가 높았던 시기가 있었습니다. 다수의 리크루터가 소싱에 참여했고, 지원자 유입량을 늘려 파이프라인 상황을 개선했습니다.
담당자별 월간/주간 소싱 현황을 확인해보면서 지금 어떤 팀원이 소싱에 집중할 수 있는 여유가 있는지, 소싱에 어려움을 겪고 있진 않은지 체크하며 팀 차원의 리소스를 효율적으로 관리했습니다. 더 나아가 리크루팅팀 전체와 각 담당자가 전사의 채용 니즈에 맞게 액션하고 있는지, 한정된 리소스를 효율적으로 활용하고 있는지 월간/주간 데이터를 보며 점검하고 있습니다.
주차별 Sourcing 현황 예시: Google Data Studio 활용
- 채널별/담당자별 Funnel 데이터
소싱하는 포지션에 맞게 채널을 잘 활용하고 있는지, 채널별로 소싱 후보자의 진행 상황 (컨택>회신>수락>지원>입사까지의 단계별 Conversion Rate)은 어떤지 살펴볼 수 있습니다.
Funnel 데이터를 담당자별로 필터를 걸어 활용해보고 있습니다. 이는 경쟁하기 위함이 아니라 서로의 노하우를 나누고 인사이트를 공유하기 위함입니다.
같은 포지션을 나와 함께 소싱하는 팀원의 데이터 또한 확인해볼 수 있도록 대시보드를 제작했습니다. 특히 Conversion Rate를 확인하고 특정 값이 유독 높은 담당자가 있다면 콜드 메일은 어떻게 보내는지, 어떻게 후보자와 커뮤니케이션 하는지 소싱 노하우를 팀원 전체와 공유하고, 어떻게 접근하는게 효과적인지 전략을 구상해보고 있습니다.
소싱한 후보자의 전형별 합격률도 데이터를 통해 살펴보고 있습니다. 소싱 후보자의 합격률이 너무 낮을 경우, 현업에서 보고 있는 필수 역량 및 경험에 대한 기준을 리크루팅 담당자가 제대로 이해하지 못한 채 소싱을 진행하고 있다고 볼 수 있습니다. 포지션별/담당자별 데이터를 통해 Hiring Manager와 충분한 싱크업이 된 상황에서 소싱을 진행하고 있는지 점검해볼 필요가 있습니다.
유입경로
포지션 오픈 전, 채용 진행 과정 중에서도 유입경로 데이터에서 많은 인사이트를 뽑아내보고 있습니다.
적합한 채용 채널을 확보하는 것은 인바운드 채용을 원활하게 해주지만 너무 많은 채널을 활용하는 건 관리 리소스 차원에서 버거울 때가 있는데요. 이럴때 포지션별 유입경로, 유입경로별 서류 합격률, 입사자 유입경로 데이터를 종합적으로 살펴보면서 어떤 의사결정이 필요할지 큰 힌트를 얻고 있습니다.
유입경로 데이터: Google Data Studio 활용
위 데이터는 x축에 유입경로별 지원자 수, y축에 유입경로별 서류합격률, 그리고 점의 크기로 유입경로별 서류합격자의 입사 비율을 볼 수 있도록 시각화한 차트입니다. x축 값이 작을수록, y축 값이 클수록, 그리고 점의 크기가 클수록 효율이 높은(Quality가 높은) 유입경로라고 볼 수 있습니다.
에이블리의 2022년 데이터를 살펴봤더니 좌측 상단에 있는 하늘색 가장 큰 점은 ‘사내추천’이었습니다. 그동안 사내추천보다 외부 채널에 홍보를 열심히 해왔는데, 이번 데이터를 통해 사내추천 부스팅 행사 또는 사내추천을 위한 가이드 및 콘텐츠 제작을 하는 방향으로 여러 아이디어를 실행에 옮겨보고 있습니다. 이렇게 유입경로 데이터를 통해 채용 브랜딩 방향성을 재고하거나 비용 효율적인 채널에 집중하는 전략을 구상해볼 수 있습니다.
여기까지가 채용 데이터를 전혀 활용하지 못하고 있던 조직에서 제가 해온 모험기(?)입니다. 아직 데이터를 보고 있지 못하신 채용 담당자 분들께서 채용 데이터 활용에 도전하실 수 있도록, 접근을 시작하실 수 있도록 용기를 드려보자는 목표로 글을 써봤습니다만 충분한 도움이 되었을지는 잘 모르겠네요.
여러분이 생각하시는 것보다 데이터를 살펴보는 것이 그리 어렵지 않을 수 있습니다. 물론 시간과 에너지가 필요한 작업입니다만, 현재 채용 프로세스에 산재해있는 문제를 해결하는데 정말 큰 힌트를 제공할 거라 자부합니다. 꼭 한번 데이터를 살펴보며 인사이트를 도출해보고, 문제의 원인과 해결 방향을 고민해보시길 추천드립니다.
데이터에 기반한 의사결정을 통해 어떤 후보자가 적합한지 확인하고, 채용하는 조직의 상황을 진단하고, 같은 리소스를 활용하더라도 효율적으로 & 짧은 기간 안에 채용을 마무리해볼 수 있습니다. 다만, 데이터는 의사결정의 도구에 불과하다는 점을 명심해주세요. 채용의 본질은 훌륭한 인재, 우리 조직에 적합한 사람을 모셔오는 것인만큼, 데이터 자체가 채용의 본질에 앞서는 실수를 하지 않도록 객관적인 시선을 유지해야 한다고 생각합니다.
인사이트를 얻고 액션 아이템을 실행에 옮기면서, 여러분이 속한 회사와 팀이 더 나은 채용을 만들어가시길 응원합니다. 실패하더라도 Lesson-Learned하며 꾸준히 채용이라는 제품을 개선해주세요!