네이버 부스트캠프 AI Tech 7기 NLP 트랙 수료 후기
네이버 부스트캠프 AI Tech 7기 NLP 트랙을 수료했다. 조금 늦었지만, 간단하게 후기를 정리해본다.
네이버 부스트캠프 AI Tech 7기 NLP 트랙을 수료했다. 조금 늦었지만, 간단하게 후기를 정리해본다.
정말 많이 늦게 적는 수료 후기... 늦더라도 없는 것보단 낫다는 마음으로 적어본다. 작년, AI Engineer가 되고 말겠다는 다짐과 함께 시작했던 Google ML Bootcamp. 많은 기초를 다지고, 좋은 사람들과 인연을 맺고, 멋진 프로젝트까지 남길 수 있었던 뜻깊은 시...
Bidrectional Encoder Representations from Transformers(BERT)는 unlabeled text로부터 좌우 문맥을 포함한 양방향 표현을 사전학습하게 설계된 모델이다. 또한, Question Answering, 언어 추론 같은 광범위한 작업에...
기존 sequence 변환 모델은 RNN 또는 CNN 기반의 인코더-디코더 구조를 바탕으로 한다. 최고 성능의 모델들은 여기에 attention mechanism 을 사용하고 있는데, 우리는 RNN과 CNN을 배제한 채 attention mechanism 만을 사용하는 새로운 구조...
이번주는 새로운 프로젝트 기계독해를 진행하기에 앞서 관련된 강의를 학습하였습니다. 시간이 나면 첫번째 프로젝트에 대한 회고도 작성하고 싶은데 가능할지 모르겠네요.