DAY터분석
close
프로필 배경
프로필 로고

DAY터분석

  • 분류 전체보기 (54)
    • Risk Management (0)
    • Analytics (29)
    • Langchain (3)
    • Data Structure & Algorithm (3)
    • Python (5)
    • Database (6)
    • SQL (3)
    • Tableau (3)
    • ETC (2)
    [ML/DL] Seq2Seq with Attention

    [ML/DL] Seq2Seq with Attention

    오늘은 Seq2Seq에 이어 Attention 개념을 설명해보고자 한다. seq2seq 모델에는 치명적인 단점이 존재한다. 만약, 입력 Sequence의 길이가 많이 길어지게 되면 한정된 길이의 Context Vector에 모든 입력 시퀸스의 정보를 담기가 상당히 어려워진다. 이러한 문제를 해결하기 위해 Attention 매커니즘이 활용된다. Attention 매커니즘은 디코더가 출력 시퀸스의 단어들을 생성할 때, 입력 시퀸스의 어떤 부분이 중요한지를 주목(attention)하게 만드는 알고리즘이다. Attention 매커니즘은 모델이 훨씬 더 긴 시퀸스를 처리할 수 있게하고 번역 품질을 개선하는 등 여러 이점을 제공하며, 특히 복잡한 문장 구조나 먼 거리의 의존성을 가진 언어 작업에서 효과가 눈에 띄..

    • format_list_bulleted Analytics
    • · 2024. 9. 2.
    • textsms
    [ML/DL] Sequence to Sequence Learning with Neural Networks

    [ML/DL] Sequence to Sequence Learning with Neural Networks

    오늘은 seq2seq을 간단히 리뷰해보고자 한다. seq2seq 모델은 LSTM을 기본단위로 한다. 기계번역에서 LSTM이 RNN보다 성능이 좋았던 이유를 돌아보면, LSTM은 두개의 정보 흐름을 사용한다는 것에 차이가 있었음을 알 수 있다. 하나는 셀 상태($C_t$)라고 불리는 장기기억 정보이고 다른 하나는 히든 상태($H_t$)라고 불리는 단기기억 정보이다. LSTM은 이 두가지 정보를 사용하여 문장의 장기의존성 문제를 해결한다. 그러나 기계번역의 문제점은 장기의존성 문제 뿐만이 아니다.기계번역의 가장 큰 문제점은 문장의 어순과 단어의 갯수가 불일치 한다는 것이다. 보는 바와 같이 해석되는 단어의 갯수와 해석하는 단어의 갯수가 일대일 대응하지 않기 때문에 번역에 있어서 어려움이 존재한다. seq2s..

    • format_list_bulleted Analytics
    • · 2024. 9. 1.
    • textsms
    • navigate_before
    • 1
    • navigate_next
    공지사항
    • PROFILE
    전체 카테고리
    • 분류 전체보기 (54)
      • Risk Management (0)
      • Analytics (29)
      • Langchain (3)
      • Data Structure & Algorithm (3)
      • Python (5)
      • Database (6)
      • SQL (3)
      • Tableau (3)
      • ETC (2)
    태그
    • #인과추론
    • #seq2seq
    • #ERD
    • #tableau
    • #shap
    • #relationships
    • #NLP
    • #추천 시스템
    • #Recsys
    • #LSTM
    전체 방문자
    오늘
    어제
    전체
    Copyright © 쭈미로운 생활 All rights reserved.
    Designed by JJuum

    티스토리툴바