[나만의 언어] Transformer, Self-Attention
darami
[주의: 그...학습 목표를 기준으로 트랜스포머..를 이해하려고 발버둥치려는 과정입네다😜😉💜🤦♀️. 작성중] 🏆 학습 목표 Transformer의 장점과 주요 프로세스인 Self-Attention에 대해 이해하고 설명할 수 있다. GPT, BERT 그리고 다른 모델에 대해서 개략적으로 설명할 수 있다. Attention 메커니즘 --(극대화)--> 트랜스포머 (기계번역 new 모델)-(기반)---> SOTA(State of the art)(자연어 처리 모델) 아 잠시만.. 이 state of the art..? 많이 들어봤는데..? 10만 유튜버 개발자 칭규가 내가 포항에서 데려간 물회집에서 이 드립을 쳤을 때.. 내가 어..state-of-the-art는 최첨단이라는 뜻 아니야? 라고 말했는데 AI ..