Attention for Deep Learning 수료증

  • 모집인원999명

  • 학습기간2024-02-29 ~ 2024-12-31

로그인하시면 강좌에 등록할 수 있습니다.
강좌 소개

강의 소개 및 개요입니다.

성명

윤성의

소속기관

KAIST

과목명

Attention for Deep Learning

강의시간

2

학습목표

1. RNN 구조에서 attention 역할을 이해한다.
2. attetion layer를 이해하고, 이를 transformer로 확장한다.

과정 소개

Attention for Deep Learning 강의 과정입니다.

1

[Attention 소개]

RNN 구조에서 attention 모듈을 이해한다

-RNN 및 이를 활용한 sequence-to-sequence를 파악한다. 
-RNN 구조에서 attention 모듈을 확장한다

2

[Self-attention layer]

Self-attention layer와 transformer에 대해 학습한다.

-RNN 구조에서 attention을 self-attention layer로 확장한다.

-Transformer로 확장한다.

분류
  • 주제
    머신러닝
  • 분야
    인공지능 & 프로그래밍
  • 실습
    없음 (이론 강의)
  • 활용 단계
    기타
교수자/개설자