본문 바로가기

[Day62] DKT 3. Baseline (LGBM, LSTM, Transformer) Sequence 모델링 transcaction data 같은 sequence data를 사용하기 위해서는 feature engineering을 통해 집계해서 non-sequence하게 만들어 사용할 수도 있다. 집계 : Aggregation 다음과 같은 방법으로 feature engineering을 해서 사용할 수 있다. 여러 유저의 신용카드 사용 내역이 있다고 하면 한 유저에 대해서 여러 사용내역이 있게 되고 이것을 한 유저에 대해서 집계할 수 있다. categorical 변수같은 경우는 많이 나온 한 카테고리를 선택할 수도 있다. null이 아닌 것의 횟수를 센다 연속형 변수면 평균을 취한다 하지만 집계하는 과정에서 정보들이 많이 손실된다. 집계하지 않고 transaction을 그대로 sequence..
[Boostcamp AI tech 3기] Week 11 학습 정리/회고 (3/28~4/3) 학습 정리 강의/스스로 도전 한 것/과제/결과물 Movie Rec 8,9,10 초벌로 듣기 Movie Rec 4 다시 듣기 이고잉님 깃허브 특강 다시 듣기 S3Rec 논문 스터디 준비 baseline 코드 분석 Competition 계획 + 팀 나누기 ->CF팀 user-based CF, item-based CF 구현 Multi-VAE 초안 구현 피어세션 S3Rec : 논문 읽기 + 토론 + baseline 코드 분석 -> 노션에 기록+PPT대신 팀의 목표와 개인 목표를 확실히 하고 이룰 수 있게 계획을 짜보자 CB팀 CF팀으로 나누어서 대회 진행 baseline 코드가 어렵고 SOTA여서 1) 처음접하기에 어렵고 2) 할 수 있는 것이 많지 않아서 힘들다는 팀원들의 의견 Competition 3000개..
[Day40] Movie Rec 2. Research Directions and Resources Interesting Reseasrch Directions SOTA RecSys 연구의 근간이 되는 논문들을 살펴보자 Matrix Factorization 사용자와 아이템의 저차원 표현을 학습한다. 명시적인 아이템이나 사용자의 feature를 사용하지 않고도 잠재적인 표현을 학습하기 때문에 latent factor model이라고 한다. R이라는 상호작용 matrix를 $\gamma_U$와 $\gamma_I$로 분해했을 때 $\gamma_U$의 한 행은 유저의 preference를 의미하고 $\gamma_I$의 한 열은 아이템의 특징을 의미한다. $\gamma_U$와 $\gamma_I$를 같은 공간상에 도식화 했을 때, 각 축이 의미하는 것은 장르, 나이 등 하나의 의미를 갖는 축이 된다. explici..
[Day40] Movie Rec 1. 추천 시스템 개요 및 대회 소개 추천 시스템 소개 사용자가 사용한 아이템에 대해 제안을 제공하는 소프트웨어 도구나 기술 일상생활에서 접하고 있는 다양한 개인화된 서비스의 일종 목적 사용자의 선호를 모델링하고 이를 통해 비즈니스 목표를 달성하는 것 사례 netflix, facebook, alibaba Personalized Education : 지식 수준 모델링을 해서 학습 컨텐츠 제공 Personalized Healthcare : 질병 진단, 의약품 처방 이력을 종합해서 미래의 질병 예측 기존 ML 방법론과의 차이 사용자와 아이템의 로그 데이터를 바탕으로 사용자가 좋아할만한 아이템을 추천한다. 기존 ML 지도학습의 하나인 Logistic Regression으로 수행해보자 $$rating(user,item) = f(user,item)=W..
[Day38] Bandit for Recommendation 10-2 : MAB 알고리즘 심화 : Thompson Samling, LinUCB Thompson Sampling 각 action에 대해 reward를 계산할 때 확률 분포를 사용한다. 주어진 k개의 action각각이 베타 분포를 따른다고 가정하고 확률분포를 업데이트한다. 베타 분포 두 개의 양의 변수 $\alpha$와 $\beta$로 표현할 수 있는 확률분포이며 0~1사이의 값을 갖는다. $$Beta(x\mid \alpha, \beta) = \frac{1}{B(\alpha, \beta)}x^{\alpha-1}(1-x)^{\beta-1}$$ B($\alpha, \beta$)는 $\alpha$와 $\beta$에 의해 정해지는 베타함수 $\alpha$와 $\beta$값에 따라 확률분포의 모양과 sampling되는 값이 달라진다. 예시 각각의 아이템 별 추정치를 계산할 때 어떻게 베타분포를..
[Day38] Bandit for Recommendation 10-1 : MAB 개요 & MAB 알고리즘 기초 Bandit은 강화학습에서 많이 사용되지만 구현방법이 간단하면서 좋은 성능을 보이기 때문에 추천시스템에서도 종종 사용한다. Multi-Armed Bandit : MAB One-Armed Bandit =slot machine 한 번에 한 개의 slot machine의 arm을 당길 수 있고 그에 따른 보상을 받게 된다. one-armed bandit을 여러 개로 늘린 문제가 multi-armed bandit이다. 카지노에 k개의 slot machine을 n번 플레이 할 수 있을 때 어떻게 하면 가장 큰 보상을 받을 수 있을까? 보상을 최대화하기 위해서 arm을 어떤 순서로 어떤 정책(policy)에 의해 당겨야하는지를 학습하는 알고리즘이다. 하지만 슬롯머신이 얼마의 확률로 reward를 주는지 정확히는 알..
[Day38] DeepCTR 9-2 : DIN & BST DIN : Deep Interest Network User behavior feature : 유저가 과거에 행동했던 기록 User behavior feature를 input feature로 사용해서 좀 더 정확한 CTR을 예측한다. Alibaba에서 발표한 모델이다. 등장 배경 더 많은 유저의 정보를 모델에서 사용하고 싶다는 needs에서 출발 DIN가 나오기 전까지는 DeepFM과 같은 딥러닝 기반 모델들은 임베딩 이후 MLP를 통과시키는 패러다임을 따랐었다. sparse feature은 임베딩+concatenate을 걸쳐 full connected layer의 입력으로 사용했었다. 이 방식은 사용자의 다양한 관심사를 반영할 수 없다. 기존에 소비한 아이템의 리스트를 user behavior featu..
[Day38] DeepCTR 9-1 : CTR Prediction with DL & Wide&Deep & DeepFM 딥러닝을 이용한 CTR예측 모델을 알아보자 CTR Prediction with Deep Learning CTR : Click-Through Rate Prediction 유저가 주어진 아이템을 클릭할 확률 광고같은 현실의 CTR데이터를 기존의 선형모델로 예측하는데는 한계가 있다. sparse하고 많은 feature를 가져서 차원이 높으며, feature간의 관계가 비선형적으로 결합되어 있는 데이터여서 문제를 해결하기는 어렵다. 그래서 이런 데이터에 효과적인 딥러닝 모델을 적용했다. Wide & Deep 선형 모델과 비선형 모델이 가진 장점을 결합한 논문(모델)이다. google play store에서 사용자가 검색한 query에 대해서 앱을 추천해주는데 사용된다. 등장 배경 Memorization : 암기..