무신사 글로벌 다국어 시스템 구축 과정

이번 글에서는 무신사 글로벌 Frontend 팀의 다국어 시스템 구축 과정과 그 과정에서 겪은 문제점 및 해결 방법을 다룹니다. 다국어 지원을 위한 i18next와 Lokalise를 연동하며 최신 기술 스택을 활용하여 효율성을 높인 사례를 공유할 것입니다. 또한, 향후 계획을 통해 더욱 발전할 무신사의 번역 시스템에 대해 알아보겠습니다. 무신사 글로벌 다국어 시스템 구축의 기술 스택 무신사는 글로벌 이커머스 플랫폼으로서 다양한 언어를 지원해야 하는 상황에 직면해 있습니다. 이와 관련하여 프론트엔드 개발 팀은 i18next라는 JavaScript 라이브러리를 선택했습니다. i18next는 React와의 통합을 지원하며, 번역 파일을 기능이나 애플리케이션별로 네임스페이스로 나눌 수 있는 유연성을 제공합니다. 이러한 다양한 장점 덕분에 무신사는 초기 단계에서 모든 번역을 단일 파일에 통합해 사용하던 것을 개선하여, 각 앱별로 번역 파일을 동적으로 로드하는 방법으로 전환하게 되었습니다. 동적 import를 통해 애플리케이션 별로 필요한 번역만 로드하고, 그 결과 사용하지 않는 번역 리소스를 최소화하여 번들 크기를 줄일 수 있었습니다. 또한, 프론트엔드 팀은 불필요한 한국어 번역 파일을 제거하여 글로벌 시장에 더 적합한 서비스를 제공할 수 있었습니다. 이 과정에서 무신사는 기술 스택을 지속적으로 개선하고 리팩토링하여 최적의 성능을 이끌어내는 데 집중했습니다. 이렇게 구축된 다국어 시스템은 향후 달라질 수 있는 다양한 요구사항에 유연하게 대응할 수 있습니다. Lokalise와의 효율적인 연동 과정 다국어 지원 시스템의 성공적인 구축에는 번역 관리 도구가 필수적입니다. 무신사는 Lokalise라는 번역 관리 시스템(TMS)을 선택하여 팀 간의 원활한 협업을 이끌어냈습니다. Lokalise는 API와 CLI를 통해 간편하게 번역 파일을 관리할 수 있도록 돕고, 실시간으로 번역 변경 사항을 확인할 수 있는 기능을 제공합니다. 이를 통해 무신사 팀은 번역 작...

AI와 함께하는 백엔드 개발자의 업무 변화

AI 시대에 백엔드 개발자의 일하는 방식이 변화하고 있습니다. 글에서는 Claude Code와 함께하여 새로운 팀과 코드 이해에서 AI Agent를 활용한 업무 방식 혁신을 살펴봅니다. 이 변화는 단순한 생산성 향상을 넘어, 보다 심오한 문제 해결에 집중할 수 있게 도와줍니다. AI와 함께하는 코드 이해의 혁신 AI 기반 도구들이 도입되면서 백엔드 개발자가 코드 이해에 대한 방식이 훨씬 더 체계적으로 변화하고 있습니다. 과거에는 코드 분석이 주로 개인의 경험과 주관에 의존하였으나, AI를 활용하게 되면서 분석의 기준이 정형화되었습니다. 개발자는 이제 AI와 협력하여 코드의 역할, 흐름, 외부 시스템과의 접점을 분석하고, 조건과 영향을 파악하는 데 집중할 수 있게 되었습니다. AI 분석 결과는 프로젝트의 이해도를 높이는 데 큰 도움을 줍니다. 이 분석 과정에서 AI가 지속적으로 동일한 분석 기준을 유지하는 덕분에 시간과 비용을 절약할 수 있게 되었습니다. 예를 들어, 요청이나 이벤트의 시작점과 종료점을 명확히 함으로써 시스템의 흐름을 더욱 이해하기 쉽게 조정할 수 있었고, 이로 인해 기존 시스템을 수정할 때도 보다 신속하고 안정적으로 기능을 개선할 방향을 찾아낼 수 있었습니다. 결국 이러한 변화는 개발자가 단순히 코드를 읽는 데서 벗어나, 시스템 전반을 이해하는 데 심층적으로 참여하게 하여 분석의 질을 높입니다. AI와의 협력은 예측 가능성과 속도를 향상시키며, 분석과 판단의 경계가 명확히 나뉘며 효율적인 업무 방식으로 이어지고 있습니다. AI와의 협업으로 이루어진 업무 구조 변화 AI는 단순한 도구가 아니라, 개발자의 업무 구조를 혁신적으로 변화시키는 파트너로 자리잡고 있습니다. 예를 들어, 여러 작업을 병렬로 처리할 수 있는 구조를 설계함으로써 개발자는 과거의 순차적인 작업 방식에서 벗어나, 각 티켓의 요구사항을 동시에 분석하고 처리할 수 있는 기회를 가지게 되었습니다. 이를 통해 개발 속도는 물론, 업무 품질도 높일 수 있는 장점을 ...

비즈니스 심각도 정의를 통한 장애 대응 개선

큐레이터 서비스는 인플루언서가 SNS를 활용해 상품을 소개하고, 그 경로를 통해 발생한 구매 성과에 대해 수수료를 지급받는 무신사의 공식 어필리에이트 서비스입니다. 이 블로그 글에서는 인플루언서 커머스가 성장함에 따라 발생한 비즈니스 심각도를 정의하고, 이를 바탕으로 장애 대응 우선순위를 개선한 과정을 다룹니다. 특히 '이 장애, 얼마나 심각한가요?'라는 질문을 해결하기 위한 체계적인 접근 방식에 대해 알아보겠습니다. 비즈니스 심각도를 정의하며 장애 대응의 중요성 큐레이터 서비스는 인플루언서가 자신의 콘텐츠를 통해 상품을 추천하고, 그로 인해 발생하는 수익을 통해 수수료를 받는 매우 중요한 비즈니스 모델입니다. 서비스의 비즈니스적 중요도가 커짐에 따라, 장애 대응의 우선순위를 명확히 정의하려는 필요성이 강해졌습니다. 기존에는 기술적인 지표를 기반으로 장애의 심각도를 판단했지만, 이는 비즈니스의 실제 영향을 반영하지 못했습니다. 예를 들어, 특정 페이지의 오류가 발생했더라도 수익에 직접적인 영향을 미치지 않는 경우가 있을 수 있기 때문에, 단순하게 기술적 크기만으로 판단하기 어려웠습니다. 이러한 문제를 해결하기 위해, 우리는 비즈니스 심각도를 정의하기 위한 명확한 기준을 설정했습니다. 핵심 사용자 여정(Critical User Journey)과 같은 비즈니스 모델의 기본 구조를 바탕으로, 장애의 심각도를 판단할 수 있는 기준을 마련했습니다. 즉, 장애가 비즈니스에 미치는 실질적 영향을 고려하여, 장애의 우선순위를 효율적으로 관리할 수 있는 시스템을 구축했습니다. 장애 대응 체계의 방향성 강화 비즈니스 심각도를 기반으로 한 장애 대응 우선순위를 정립함으로써 우리는 서비스 운영에서 발생하는 다양한 장애를 보다 효과적으로 관리할 수 있었습니다. 구체적으로, CSP(Critical Serving Path)를 정의하여 매출과 전환에 직결되는 경로를 구분하고, 이를 통해 장애 발생 시 반응할 수 있는 우선순위 체계를 설정했습니다. CSP의 ...

AI 기반 SLO 자동화로 배포 안정성 향상 역량 강화

O4O 팀은 AI를 활용하여 SLO(Service Level Objective) 자동화를 통해 배포 안정성을 획기적으로 향상시켰습니다. 이를 위해 각 서비스에 맞는 SLO를 설계하고, 실시간 모니터링을 통해 오류 예산을 자동으로 보호할 수 있는 시스템을 구축했습니다. 본 가이드를 통해 여러분은 O4O 팀이 7일 만에 완성한 실전 사례를 살펴보고, 이러한 혁신적인 접근이 어떻게 이루어졌는지 이해할 수 있을 것입니다. AI 기반 SLO 시스템 구현으로 배포 안정성 확보 O4O 팀은 다양한 서비스의 안정성 관리를 위해 AI를 기반으로 한 SLO 자동화 시스템을 구축했습니다. 전통적인 모니터링 방식은 HTTP 상태 코드에 의존하고 있었지만, 이는 정확하지 않은 알림과 비즈니스의 실제 성과를 반영하지 못하는 문제점을 가지고 있었습니다. 이를 개선하기 위해, O4O 팀은 APM(Application Performance Monitoring) 도구를 활용하여 서비스의 실제 성공 여부를 측정하는 새로운 기준을 마련했습니다. 이 시스템은 sales-api, moss-api, mpos-api 등 서로 다른 특성을 가진 서비스에 각각 적용되어, 안정성을 한층 강화했습니다. AI는 과거의 데이터 분석을 통해 각 서비스의 정상 운영 기준을 세우고, 지속적으로 성과를 모니터링하여 실시간으로 알림을 갱신합니다. 결과적으로, O4O 팀은 배포 중 발생할 수 있는 오탐 알림을 zero로 줄이는 성과를 얻었고, 실제 비즈니스 실패를 즉시 탐지할 수 있는 체계를 마련했습니다. 이러한 AI 기반 SLO 시스템의 구현은 팀의 배포 안정성 및 운영 효율성을 크게 증가시켰습니다. 자동화된 SLO 운영으로 팀의 효율성 증가 SLO 자동화 시스템은 O4O 팀의 운영 효율성을 극대화하는 데 큰 역할을 했습니다. 배포 시 오류 예산을 자동으로 보호하는 기능은 개발자들이 장애 발생 여부를 즉시 판단할 수 있는 환경을 마련해줍니다. 이를 통해, 팀원들은 작은 알림들에 대해 신속히 대응하는 대신...

무신사 오프라인 체험기와 운영 개선 경험

무신사 O4O팀은 오프라인 리테일 제품을 책임지고 있으며, 팀원들은 직접 매장에서 파트타임 체험을 통해 오프라인 사업의 현황과 개선점을 관찰했습니다. 이를 통해 무신사 매장의 운영 단계와 문제점, 제품 디자인 관점을 이해하게 되었고, 팀원들은 아프다. 이러한 경험은 앞으로의 오프라인 비즈니스를 발전시키기 위한 중요한 토대가 될 것입니다. 무신사 오프라인 사업의 확장기 무신사는 현재 오프라인 사업의 확장기에 진입했습니다. 이 단계에서 가장 중요한 것은 매장을 안정적으로 운영할 수 있는 시스템입니다. O4O팀은 팀원들이 파트타임으로 매장에서 실제 경험을 쌓도록 하여, 운영 효율성을 높일 수 있었습니다. 그 중에서도 매장의 다양한 업무에 대해 빠짐없이 학습하고, 그 과정을 통해 새로운 인사이트를 얻는 기회를 가졌습니다. 매장에서는 각 팀원에게 이름표와 워키(무전기)를 제공하여 온보딩 과정을 거쳤습니다. 이 과정에서 팀원들은 오픈 전 재고 소팅 업무부터 오픈 후 POS 결제, 피팅룸 관리, 재고 반출 등의 업무를 직접 체험했습니다. 현장을 경험하면서 매장 운영이 단순히 돌아가는 게 아니라, 수많은 매니저와 크루들의 노력이 필요한 복잡한 시스템임을 알게 되었습니다. 현장 파트타임 경험은 팀원들에게 매장의 운영 구조를 이해하는 데 큰 도움이 되었습니다. 이전에는 온라인에서만 교육받고 경험했지만, 실제로 매장에서 고객을 맞이하면서 그 필요한 업무의 중요성을 깊이 이해하게 되었습니다. 이러한 경험은 앞으로의 오프라인 사업에서 진행해야 할 여러 과제들을 해결하는 데 큰 자산이 될 것입니다. 운영 프로세스에서 발견한 문제점 무신사 매장에서의 파트타임 경험을 통해 몇 가지 주요 문제점을 발견했습니다. 첫 번째는 수기 및 수동 작업으로 인한 운영 비효율입니다. 새로운 바코드 체계의 도입으로 인해 매장 내 혼용되는 바코드가 존재하게 되면서 일부 상품에 대한 관리가 어려워지는 문제가 발생했습니다. 추가로, 매일 아침 수십 개의 박스를 수작업으로 분류하는 문제도...

무신사 AI 코드 리뷰 도입과 운영 과정 공유

안녕하세요. 무신사에서는 AI 코드 리뷰를 도입하고 운영 가능한 인프라와 표준화된 프로세스를 구축하기 위한 과정을 공유하고자 합니다. 이 글에서는 LLM 기반 코드 리뷰의 필요성과 그 효과, 그리고 무신사가 실제로 수행한 구축 과정에 대해 설명합니다. AI 기술을 활용한 코드 리뷰의 도입과 정착은 기술 조직 내에서 혁신을 촉진하고 생산성을 높이는 필수적인 요소가 되고 있습니다. AI 코드 리뷰 도입의 필요성 무신사는 최근 AI 코드 리뷰의 필요성을 절감하면서 이 기술을 도입하기로 결정했습니다. 과거에는 AI를 활용한 코드 리뷰가 고비용, 복잡한 인프라 문제가 있어 실무에 적용하기 어려웠으나, 이제는 기술적 진입 장벽이 크게 낮아졌습니다. Anthropic의 클로드(Claude)가 GitHub Actions을 공식 지원하면서, 복잡한 시스템 구축 없이도 AI 코드 리뷰를 간편하게 도입할 수 있는 환경이 마련되었습니다. AI 코드 리뷰의 주요 가치는 팀의 워크플로우를 개선하는 데 있습니다. AI는 단순히 코드를 생성하는 것에 그치지 않고, 협업 과정 전체를 매끄럽게 만드는 데 기여합니다. 코드 리뷰는 일반적으로 높은 품질을 유지해야 하는데, AI는 반복적으로 발생하는 실수와 패턴을 효과적으로 잡아내어 리뷰어의 부담을 줄입니다. 이를 통해 개인 개발자의 작업 속도가 빨라질 뿐 아니라, 팀 단위의 개발 사이클이 보다 유연하게 연결되는 구조적 효율성이 생길 것입니다. AI 코드 리뷰는 "고차원 의사결정"을 요구하지 않고도, 반복적으로 발생하는 오류를 효율적으로 걸러내는 역할을 합니다. 이러한 효과를 바탕으로 무신사는 AI를 도입했으며, 팀 전체의 코드 품질 기준을 일정 수준 이상으로 유지할 수 있도록 하였습니다. 이제 인프라가 마련된 만큼, AI 코드 리뷰를 통해 팀의 효율성을 높여나갈 시점에 있습니다. AI 코드 리뷰의 효과와 가치 AI 코드 리뷰의 효과는 여러 측면에서 나타납니다. 우선 AI는 반복적이고 규칙적인 코드 리뷰를...

AI 아키텍처 규칙 자동 검증을 위한 ArchUnit 도입

무신사 물류 플랫폼팀은 AI가 생성한 코드에서 자주 발생하는 아키텍처 규칙 위반 문제를 해결하기 위해 ArchUnit을 도입하게 되었습니다. 아키텍처 규칙을 자동으로 검증함으로써 AI와의 협업을 향상시키고 코드 리뷰에서의 부담을 줄였습니다. 이러한 변화는 단순한 요청을 넘어서서 AI의 아키텍처 위반을 사전에 차단하는 체계로 발전하게 되었습니다. AI와 ArchUnit의 시너지를 창출하다 무신사 물류 플랫폼팀은 AI인 Claude가 생성하는 코드에서 아키텍처 규칙을 준수하지 않는 문제가 빈번히 발생하는 것을 목격했습니다. 이를 해결하기 위해 ArchUnit을 도입하기로 결정했으며, 이 도구는 깔끔하게 아키텍처 규칙을 검증할 수 있는 능력을 가지고 있습니다. ArchUnit은 JUnit 테스트처럼 작동하여 코드가 규칙을 위반하면 테스트가 실패하도록 설정할 수 있습니다. 이렇게 하면 AI가 생성한 코드에서 아키텍처 위반이 발생할 경우 즉시 알려주며, AI는 실패 메시지를 통해 어떤 부분에서 문제가 발생했는지 이해하고 스스로 수정할 수 있게 됩니다. ArchUnit의 특징은 아키텍처 규칙의 자동 검증을 통해 팀의 개발 생산성을 크게 향상시킬 수 있다는 점입니다. 과거에는 코드 리뷰에서 아키텍처 규칙 준수 여부를 검토할 때 많은 시간이 소요되었지만, 이제는 ArchUnit이 이를 자동으로 수행하므로 리뷰어는 비즈니스 로직의 정확성과 엣지 케이스 처리에 집중할 수 있게 되었습니다. 이는 팀의 전반적인 업무 효율성을 높여주었습니다. 특히, ArchUnit은 자연어로 제시된 아키텍처 규칙을 이해하고, 이를 기반으로 테스트 코드를 생성할 수 있는 능력을 지니고 있어 AI와의 연동이 용이합니다. 사람이 간단한 비즈니스 규칙을 자연어로 설명하면, AI가 이를 ArchUnit 테스트 코드로 변환하여 적용 가능한 구조를 마련하게 됩니다. 자동화된 검증 체계는 코드 품질을 유지하고 효과적인 협업을 이룰 수 있는 기반이 됩니다. 아키텍처 규칙 자동 검증의 필요성 AI...