본문 바로가기 메뉴 바로가기

🌍 Hello World :D

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

🌍 Hello World :D

검색하기 폼
  • total (100)
    • Programming (70)
      • c (11)
      • python (2)
      • 자료구조 (10)
      • 알고리즘 (13)
      • 백준 (13)
      • 프로그래머스 (13)
      • API (1)
      • SQL (7)
    • AI (18)
      • 논문 리뷰 Paper Review (12)
      • Computer Vision (0)
      • 3D (0)
      • Generative (0)
      • Segmentation (1)
      • Classification (3)
      • Detection (1)
      • ETC (1)
    • 대외활동 (9)
      • LG CNS AI Genius (2)
      • Naver AI Rush 2023 (1)
      • LG Aimers (5)
      • 기타 (1)
  • 방명록

AI/ETC (1)
[논문리뷰] Attention is All You Need (Transformer)

Intro* RNN을 사용하지 않고 Attention만으로 Seq2Seq 구조를 구현한 모델* 기존 모델들은 RCC or CNN에 기초, encoder에서 입력 seq을 vector로 압축할 때 일부 정보가 손실되기 때문에 보정을 위해 Attention을 사용하는 형태였다.* Attention만으로 encoder&decoder를 만들어보자!* 논문에 따르면, 이 모델은 병렬처리가 가능하고, 학습 시간이 훨씬 덜 소요된다 Attention MachanismSequence-to-Sequence Recurrent model은 Sequence순으로 데이터가 입력되는데, 이전 데이터의 hidden state ht">ht가 다음 데이터의 hidden state ht+1">ht+1를 구할 때 사용된다. 즉, 어떠한 ..

AI/ETC 2025. 2. 12. 14:30
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • Gaussian Splatting
  • CLOVAX
  • 파이썬코테
  • 논문리뷰
  • 드림부스
  • 코랩에러
  • AI컨퍼런스
  • MYSQL
  • 논문읽기
  • AIRUSH2023
  • C언어
  • 테크서밋
  • 3d-gs
  • AIRUSH
  • gan
  • SKTECHSUMMIT
  • gs논문
  • Paper review
  • 논문
  • 코테준비
  • 코딩공부
  • dreambooth
  • 프로그래머스
  • 컴퓨터비전
  • Aimers
  • 스테이블디퓨전
  • lgaimers
  • SQL
  • 파이썬
  • 2d-gs
more
«   2025/09   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
글 보관함
반응형

Blog is powered by Tistory / Designed by Tistory

티스토리툴바