본문 바로가기

Deep learning/Machine Learning/CS 공부기록

검색하기
Deep learning/Machine Learning/CS 공부기록
프로필사진 SeducingHyeok

  • 블로그 메인 (18)
    • 음악 (1)
    • ML, DL (8)
      • NLP (4)
      • PyTorch (3)
    • 영어 (1)
    • CS (7)
      • MS Acess (1)
      • 파이썬 (1)
      • 면접 질문 정리 (4)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/08   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
Tags
  • Transformation
  • deep learning
  • contiguous
  • vs code
  • Deeplearning
  • 자료구조
  • tutorial
  • Analog Rebellion
  • 인디음악
  • CS
  • docker
  • rnn
  • dl
  • gru
  • Python
  • Data Structure
  • COLAB
  • attention
  • Algorithm
  • pytorch
  • lstm
  • torchtext
  • NLP
  • 도커
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록tutorial (1)

Deep learning/Machine Learning/CS 공부기록

SEQUENCE-TO-SEQUENCE MODELING WITH NN.TRANSFORMER AND TORCHTEXT

Introduction 이번 튜토리얼은 nn.Transformer를 이용하여 sequence-to-sequence 모델을 어떻게 학습시키는지 알아보겠습니다. Pytroch 1.2 release는 Attention is All You Need에 기반한 표준 transformer 모듈을 포함합니다. transformer 모델은 더욱 parallelizable하면서 다양한 sequence-to-sequence에 우월함이 증명되었습니다. nn.Transformer는 전적으로 attention mechanism(최근 nn.MultiheadAttention으로 구현된 다른 모듈)에 의존하여 인풋과 아웃풋사이의 global dependency를 추출합니다. nn.Transformer은 고도로 모듈화되어 이 튜토리얼의..

ML, DL/NLP 2020. 6. 29. 17:27
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바