본문 바로가기

Deep learning/Machine Learning/CS 공부기록

검색하기
Deep learning/Machine Learning/CS 공부기록
프로필사진 SeducingHyeok

  • 블로그 메인 (18)
    • 음악 (1)
    • ML, DL (8)
      • NLP (4)
      • PyTorch (3)
    • 영어 (1)
    • CS (7)
      • MS Acess (1)
      • 파이썬 (1)
      • 면접 질문 정리 (4)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
Tags
  • Algorithm
  • contiguous
  • attention
  • Analog Rebellion
  • 인디음악
  • torchtext
  • dl
  • deep learning
  • vs code
  • lstm
  • gru
  • 도커
  • 자료구조
  • Python
  • COLAB
  • pytorch
  • Data Structure
  • CS
  • docker
  • Deeplearning
  • rnn
  • NLP
  • Transformation
  • tutorial
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록tutorial (1)

Deep learning/Machine Learning/CS 공부기록

SEQUENCE-TO-SEQUENCE MODELING WITH NN.TRANSFORMER AND TORCHTEXT

Introduction 이번 튜토리얼은 nn.Transformer를 이용하여 sequence-to-sequence 모델을 어떻게 학습시키는지 알아보겠습니다. Pytroch 1.2 release는 Attention is All You Need에 기반한 표준 transformer 모듈을 포함합니다. transformer 모델은 더욱 parallelizable하면서 다양한 sequence-to-sequence에 우월함이 증명되었습니다. nn.Transformer는 전적으로 attention mechanism(최근 nn.MultiheadAttention으로 구현된 다른 모듈)에 의존하여 인풋과 아웃풋사이의 global dependency를 추출합니다. nn.Transformer은 고도로 모듈화되어 이 튜토리얼의..

ML, DL/NLP 2020. 6. 29. 17:27
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바