최신 피드를 AI 요약으로 빠르게 확인하세요

당근은 중고거래 서버의 릴리즈 노트 작성 과정을 배포 데이터 자산화와 비개발자도 이해하는 번역 레이어를 결합해 LLM으로 자동화하는 파이프라인을 도입했습니다. Stage 1에서 배포 기록을 Notion에 upsert하고 PR 요약을 CodeRabbit으로 정제한 뒤 Stage 2에서 LLM으로 릴리즈 노트를 생성합니다. 또한 Notion의 PR/배포 DB 간 관계를 설정하고 매일 UTC 01:00에 자동으로 노트를 생성하며 외부 인프라 없이 기존 도구로 구현했습니다.

티빙의 경력직 이직 사례를 통해 브랜드 마케팅 담당자의 이직 계기와 회사를 선택한 이유를 현직자의 시각으로 다룹니다. 경력직 인터뷰는 오픈 커뮤니케이션과 Slack 기반 협업, 부서 간 정보 공유의 투명성이 업무 효율을 높이는 점을 구체적으로 보여줍니다. 또한 열정과 전문성을 유지하는 팀 분위기가 이직 과정의 어려움을 실제로 극복하는 데 큰 도움이 된다고 덧붙입니다.

AWS의 ElastiCache for Valkey를 활용한 CESC 아키텍처로 뷰컴즈의 멀티버스 기반 타닥 v2의 이미지 로딩을 가속화합니다. 벡터 검색과 시맨틱 캐싱, HNSW 인덱스 및 LLM 검증으로 캐시 적중률을 높이고 지연 시간을 크게 낮췄으며, 캐시 미스 시에는 텍스트 우선 흐름을 유지합니다. 결과적으로 월드 진입, 보스 조우 등 이벤트에서 평균 응답이 100ms 미만으로 감소하고 비용도 35% 절감되었습니다.

캐치테이블은 AI PIT STOP를 통해 이틀간의 전사 해커톤으로 AI를 업무의 핵심 파트너로 두는 분위기와 교육 체계를 구축했습니다. 핵심 방법으로 Google AI Studio와 Claude를 활용한 비개발자도 가능한 Hands-on 학습을 49시간으로 구성하고, 184개 과제 선발 및 76건 신규 제출을 이끌었습니다. 또한 이틀 동안 약 360억 토큰과 23만6천 건의 요청이 발생했고, 약 3,600만원 규모의 비용으로 조직 전반에 AI 도입 확산의 촉매가 될 것으로 기대됩니다.

라인은 AI가 QA를 대체하지 않고 확장했다는 주장을 바탕으로 현장의 경험과 시사점을 다룹니다. 라인은 AI 확장이 QA 업무의 역할 확장과 협력을 다루며, 현업에서의 적용 포인트를 다룹니다.

티빙의 쇼츠/숏드라마 경험에서 세로형 플레이어를 단일 인스턴스로 관리하는 아키텍처를 도입해 다수 아이템의 디코더 중복 초기화로 인한 OOM과 디코더 초기화 실패를 완화했습니다. 프리로드 매니저를 도입해 인접 아이템을 Rank별로 프리로드하고 Surface를 이용한 렌더링 타깃 교체로 View 계층과의 복잡성을 줄였으며, DRM의 경우도 차별적 프리로드를 적용했습니다. MVP 대비 VST가 평균 약 740ms에서 프리로드 적용 후 347ms로 감소했고, 이후 월간 지표에서도 대부분 300ms 근처를 달성하며 재생 체감을 크게 향상시켰습니다.
토스는 AI 시대에 성과를 내는 조직일수록 기존 TPM 정의를 넘어서는 새로운 토스식 TPM 역할을 제안합니다. 다양한 팀 간 얽힘과 책임 경계의 모호함을 해결하기 위해, 문제를 정의하고 실행 구조를 재설계하며 DRI를 설정하는 전략 실행자다. 토스식 TPM은 조율을 넘어서 실행 결과를 바꾸고, 조직의 회색지대 문제를 끝까지 해결하는데 중점을 두며 주도적으로 구조를 바꿔 실행이 재가동되도록 하는 것을 목표로 합니다.

AWS의 Amazon GameLift Servers를 활용한 멀티플레이어 게임 출시 준비의 핵심 영역과 구성 원칙을 구체적인 구현 관점까지 다룹니다. 출시 설문지 작성과 한도 상향, 다중 위치 플릿 구성, 부하 테스트 및 크리티컬 패스 검증, API 스로틀링 모니터링, 블루/그린 배포로 프로덕션 도입을 설명합니다. 이 접근은 글로벌 플레이어 부하를 안정적으로 수용하고, 출시 초 피크를 대비한 비용 및 리스크 관리에 도움을 줍니다.

AWS가 제공하는 Amazon GameLift Servers의 사전 제작 단계 가이드는 글로벌 멀티플레이어 게임의 서버 플릿 구성, 테스트, 세션 배치 설계에 초점을 맞춘다. AWS가 제시하는 초기 테스트는 로컬 검증에서 시작해 컨테이너 플릿과 인스턴스 유형 선택, 세션 라이프사이클 관리, 로깅과 모니터링 설정 등 실행 방법을 제공합니다. 실무 관점에서 로그, 메트릭, 알람 설정과 큐 기반 세션 배치의 운영 준비가 실제 출시의 성공 여건임을 보여줍니다.

AWS의 Aurora PostgreSQL에서 pg_bigm과 pgvector를 결합한 한국어 하이브리드 검색 아키텍처를 소개하고, RAG 응용의 엔드투엔드 흐름을 설명합니다. 데이터 수집과 청킹, 1024차원 Bedrock Titan 임베딩 생성, Aurora에 원본 텍스트와 벡터를 저장하고 GIN/HNSW 인덱스로 검색을 수행하는 구체적 방법을 다룹니다. 또한 RRF 기반의 두 검색 경로를 결합하는 하이브리드 구현과 PL/pgSQL 함수, Python 기반 RAG 애플리케이션 통합 사례를 제시합니다.