본문 바로가기

sihyeon.train()

검색하기
sihyeon.train()
프로필사진 sihyeonS2

  • 전체 (6)
    • 딥러닝 (2)
      • 모델 & 논문 리뷰 (0)
      • 이론 (2)
    • 개발&실험 (3)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30
Tags
  • Vae
  • 딥러닝
  • 음성인식
  • ELBO
  • 코드변환
  • Transformer
  • 머신러닝
  • Attention
  • 악플
  • 기타반주
  • 인공지능
  • 기타
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록Attention (1)

sihyeon.train()

Self-Attention이란 + Colab 구조 구현 예제

Transformer 아키텍처의 Self-Attention 메커니즘 효용성은 2025년 현재에도 여전히 건재하다. LLM, Multimodal, Diffusion & Generation 등 많은 분야의 모델에서 사용되는 Self-Attention이란 무엇인지 직관적으로 이해해보자. 1. Self-Attention이란 컴퓨터가 자연어를 입력받을 때, 자연어 시퀀스 내 각 단어들은 벡터 형태로 인코딩된다. 해당 벡터들의 의미를 파악하기 위해선 단어와 단어의 관계를 파악하는 일이 정말 중요한데, 기존 RNN 구조를 활용하게 되면 문제가 하나 생겼다. 시퀀스의 길이가 길어질 수록 멀리 떨어진 단어끼리의 관계 계산이 점차 흐려진다는 장기 의존성 문제였다. CNN 역시 local receptive field를 보기..

딥러닝/이론 2025. 6. 23. 01:07
이전 Prev 1 Next 다음

Blog is powered by AXZ / Designed by Tistory

티스토리툴바