이전 글과 이어지는 내용입니다.https://baram1ng.tistory.com/47 [Causal Inference] 성향점수이전 글과 이어지는 내용입니다.https://baram1ng.tistory.com/45 [Causal Inference] 유용한 선형회귀이전 글과 이어지는 내용입니다.https://baram1ng.tistory.com/44 [Causal Inference] 인과추론 기초 & 무작위 실험KHUDbaram1ng.tistory.com지금까지는 처치의 평균적인 영향을 살펴보았다면, 지금부터는 처치가 사람마다 어떻게 다른 영향을 미치는지에 초점을 맞춘다. 어떤 대상이 처치에 더 잘 반응하는지 아는 것은 처치의 대상을 결정하는데 중요한 역할을 한다. ATE에서 CATE로 지금까지 처치에..
이전 글과 이어지는 내용입니다.https://baram1ng.tistory.com/45 [Causal Inference] 유용한 선형회귀이전 글과 이어지는 내용입니다.https://baram1ng.tistory.com/44 [Causal Inference] 인과추론 기초 & 무작위 실험KHUDA 활동을 통해서 이번에 인과추론 스터디를 진행하게 되었는데, 앞으로 해당 블로그에 정baram1ng.tistory.com오늘은 성향점수에 대해 알아보고자 한다. 성향점수 가중치는 또다른 편향 제거 방법 중 하나로, 직교화처럼 잔차를 생성하는 대신, 처치 배정 메커니즘을 모델링하고 모델 예측을 사용하여 데이터를 재조정한다. 성향 점수는 특히 이진(binary)이나 이산형(discrete)처치가 있을 때 특히 적합하..
많은 Neural Language understanding 모델들의 representation에서의 Key point인 ELMO를 살펴보자. Intro 논문에서는 High qulity representations들은 두가지 동일한 모델링이 들어간다고 말한다.언어의 사용에서 복잡한 특징을 잡아야 한다. (ex. syntax and semantics) 단어들이 언어학적인 맥락에 따라서 다른 뜻을 가질 때 다른 representation을 가져야 한다. (ex. show(눈) != eye(눈), 다의어) Glove vs ELMo Glove는 play를 스포츠 쪽에 치우친 단어로 해석을 하는 반면, ELMo는 단어들의 뜻을 맥락에 따라서 구분하는 것을 볼 수 있다. Feature ELMo는 각각의 토큰들이 전..
이전 글과 이어지는 내용입니다.https://baram1ng.tistory.com/44 [Causal Inference] 인과추론 기초 & 무작위 실험KHUDA 활동을 통해서 이번에 인과추론 스터디를 진행하게 되었는데, 앞으로 해당 블로그에 정리 내용을 업로드 해보고자 한다. 아래 글은 해당 도서 내용을 나만의 방식으로 정리한 글이다.https:/baram1ng.tistory.com 선형회귀의 필요성 선형 회귀는 인과추론의 강력한 모델이며, 이에 대해 알아보기로 한다. 모델이 필요한 이유 대출 금액이나 신용카드 한도가 채무불이행률에 미치는 영향에 대한 예시를 통해 회귀분석의 필요성을 알아보자. 보통, 신용카드 한도를 늘리면 신용카드 대급미납률이 높아질 것이라고 생각한다. 그러나, 실제 은행 데이터에는 신..
KHUDA 활동을 통해서 이번에 인과추론 스터디를 진행하게 되었는데, 앞으로 해당 블로그에 정리 내용을 업로드 해보고자 한다. 아래 글은 해당 도서 내용을 나만의 방식으로 정리한 글이다.https://product.kyobobook.co.kr/detail/S000212577153 실무로 통하는 인과추론 with 파이썬 | 마테우스 파쿠레 - 교보문고실무로 통하는 인과추론 with 파이썬 | 데이터 기반의 통찰력 있는 의사결정을 위한 인과추론, 효율적인 영향력 분석을 통한 성공적인 비즈니스 정책 결정온라인 마케팅 예산을 1달러 높이면 구product.kyobobook.co.kr인과추론 Intro 인과관계 != 연관관계 "연관관계는 인과관계가 아니다." 인과관계는 파악하기 까다롭고 때문에 사람들은 연관관계를..
오늘은 Seq2Seq에 이어 Attention 개념을 설명해보고자 한다. seq2seq 모델에는 치명적인 단점이 존재한다. 만약, 입력 Sequence의 길이가 많이 길어지게 되면 한정된 길이의 Context Vector에 모든 입력 시퀸스의 정보를 담기가 상당히 어려워진다. 이러한 문제를 해결하기 위해 Attention 매커니즘이 활용된다. Attention 매커니즘은 디코더가 출력 시퀸스의 단어들을 생성할 때, 입력 시퀸스의 어떤 부분이 중요한지를 주목(attention)하게 만드는 알고리즘이다. Attention 매커니즘은 모델이 훨씬 더 긴 시퀸스를 처리할 수 있게하고 번역 품질을 개선하는 등 여러 이점을 제공하며, 특히 복잡한 문장 구조나 먼 거리의 의존성을 가진 언어 작업에서 효과가 눈에 띄..