오늘은 BCG코리아에 게재된 "AI 에이전트 기업의 부상: 리더는 AI 시대를 어떻게 이끌어야 하는가"를 읽어보았습니다.
도구를 도입하는 게 아니라 동료를 들이는 시대
요즘 AI 이야기를 하면 대부분 이렇게 시작합니다.
"업무 자동화가 빨라질 것이다." "생산성이 올라갈 것이다."
그런데 이 글을 읽고 난 뒤 드는 생각은, AI 에이전트는 더 이상 사람이 쓰는 도구에 머무르지 않는다.
스스로 계획하고 실행하고 학습하며, 실제 팀원처럼 프로세스 안에서 움직입니다.
그리고 설문 응답자의 76%가 AI 에이전트를 도구보다 동료에 가깝다고 본다고 합니다.
우리는 지금 '기술'을 도입하는 걸까, 아니면 조직 안에 '새로운 행위자'를 채용하는 걸까?
이 질문은 조금 불편하게 들립니다.
그 이유는, 도구라면 구매와 관리의 문제인데 동료라면 역할, 권한, 책임, 평가, 학습의 문제로 바뀌기 때문입니다.
AI 에이전트가 흔드는 건 '업무'가 아닌 '매니지먼트'
BCG에서 AI 에이전트는 '기술 트렌드'가 아닌 매니지먼트 프레임워크를 무너뜨리는 존재로 정의합니다.
과거에는 자동화 vs 지원이나 도구 vs 일하는 주체와 같이 선택지가 단순했습니다.
그러나, AI 에이전트는 그 중간을 차지합니다.
도구처럼 확장되면서 동시에 사람처럼 적응하고 학습합니다.
그래서 조직은 하나의 시스템을 '자산 관리' 관점과 '인사 관리' 관점으로 동시에 다뤄야 합니다.
IT는 예측 가능성과 확장성을 원하고,
CFO는 투자수익과 회계 프레임을 원하며,
HR은 성과관리, 감동, 윤리를 원합니다.
사업부는 효율도 적응도 둘 다 원합니다.
이 상충을 실행 문제로 보면 계속 삐걱거리게 되는데요,
BCG는 이러한 문제를 전략적 필수 과제라고 말합니다.
AI 에이전트를 잘 관리하는 능력 자체가 조직의 차별화가 되는 것입니다.
리더가 마주할 4가지 딜레마
BCG는 AI 에이전트가 촉발하는 긴장 관계를 4가지로 정리합니다.
리더는 무엇을 결정해야 하고, HR은 무엇을 설계해야 하는가?
1. 확장성 vs 적응성
AI는 표준화된 환경에서 강하지만 표준화가 지나치면 예외 대응/학습 능력을 제한할 수 있습니다.
HR 질문
- 우리는 업무를 어디까지 표준화 할 것인가?
- 예외 상황(장애/리스크 등)은 누가 처리하도록 설계할 것인가?
- 'AI가 잘하는 일'과 '사람이 반드시 해야 할 일'의 경계는 정의가 되었는가?
2. 경험 vs 신속성
AI 투자는 도구처럼 감가상각되는 동시에, 사람처럼 학습하며 가치가 커지기도 합니다.
HR질문
- 우리는 AI를 '비용 절감'에 둘 것인가, '역량 확장/학습'에 둘 것인가?
- 사람의 성장 투자와 AI 학습 투자는 하나의 포트폴리오로 보고 있는가?
- 리스킬링 예산은 지속 재투자로 설계되어 있는가?
3. 감독 vs 자율성
완전 통제도, 완전 자동화도 아닙니다.
리스크 수준에 따라 human-in-the-loop / human-out-of-the-loop를 함께 설계해야 합니다.
HR 질문
- 어떤 업무는 사람 검토가 필수인가?
- 어떤 업무는 자율성을 허용할 수 있는가?
- AI의 실수는 “결함”인가, “학습의 기회”인가? 우리 조직은 실패를 공유할 문화가 있는가?
- 가드레일(보안/프라이버시/컴플라이언스)과 책임소재를 문서화했는가?
4. 부분 도입 vs 전면 재설계
HR 질문
- AI를 ‘업무 최적화’로만 쓰고 있지 않은가?
- 어느 시점부터 “부분 개선”을 “프로세스 재설계” 논의로 전환할지 기준이 있는가?
- 변화관리의 범위를 프로젝트가 아니라 운영모델 수준으로 보고 있는가?
AI 에이전트 시대의 HR은 무엇을 해야 할까
AI 에이전트는 기술의 문제가 아닌 조직의 문제라고 생각합니다.
1) 역할을 다시 쪼개고, 직무를 재정의해야 합니다.
“어느 단계를 자동화할까?”가 아니라 “프로세스 자체를 어떻게 다시 설계할까?”로 질문이 바뀝니다.
HR은 JD 업데이트 수준이 아니라 업무 흐름, 권한 구조, 책임 체계를 포함한 설계를 해야 합니다.
2) 하이브리드 팀 리더십이 필요합니다.
앞으로 관리자는 사람만 관리하지 않을 것입니다. 사람 + AI 에이전트로 구성된 팀을 오케스트레이션해야 합니다.
이때 필요한 역량은 통제나 보고가 아닌 예외 상황 판단/윤리적 감독/협업 설계 같은 리더십입니다.
3) AI 에이전트에도 "생애주기 관리"가 필요합니다.
가장 인상 깊었던 개념 중 하나는 AI 에이전트를 온보딩-교육-평가-재교육-퇴직까지 관리해야 한다는 관점입니다.
즉, HR이 사람에게 해온 것을 AI 에이전트에도 일부 적용해야 합니다.
- 신규 에이전트 테스트/검증(온보딩)
- 정확성/편향/적응성 추적(성과평가)
- 모델 드리프트 대응(재교육/리스킬링)
- 단계적 전환/폐기(퇴역)
이걸 누가 맡을 것인가? 조직은 이제 정말로 AI 인사 기능을 고민해야 합니다.