본문 바로가기

분류 전체보기128

[논문 리뷰, GPT]Improving Language Understanding by Generative Pre-Training 이 글은 2018년 6월 OpenAI에서 발표한 GPT 시리즈의 최초 버전인 GPT : Improving Language Understanding by Generative Pre-Training를 정리한 글이다. 요약하자면 다음과 같다. Transformer 구조는 여러 NLP task에 유용하며, Unsupervised pre-training을 통해 충분히 많은 Language정보가 학습되어 Supervised fine-tuning시 특정 Task에 맞는 딥러닝 모델링에 들어가는 시간과 비용을 줄임과 동시에 최고 성능을 낼 수 있다. 또한 LSTM에 비해 Language modeling capability와 Structured attentional memory를 향상하여 zero-shot 성능에서 이.. 2022. 5. 3.
One-Shot Learning, Siamese Network -목차- 1. Problem Definition 2. Siamese Network 3. Triplet loss 3.1 Triplet selection 이 글에서는 Coursera Andrew Ng Lecture와 'FaceNet: A Unified Embedding for Face Recognition and Clustering' 논문을 바탕으로 one shot learning에 대한 전반적인 내용을 소개 및 정리해보려고 한다. 1. Problem Definition 딥러닝 모델이 인간처럼 소량의 데이터만으로 학습을 할 수 있게 하는 것을 Few-shot learning이라고 한다. One-shot learning은 few-shot learning의 극단적인 예시로, 한 장의 데이터만으로 학습을 할 수 .. 2022. 5. 1.
[논문 리뷰, Zero-Shot Learning]DeViSE: A Deep Visual-Semantic Embedding Model -목차- 1. Zoro-Shot Learning 이란? 2. DeViSE: A Deep Visual-Semantic Embedding Model 2.1 introduction 2.2 Previous work 2.3 Proposed Approach 2.3.1 Language Model Pre-training 2.3.2 Visual Model Pre-training 2.3.3 Deep Visual-Sementic Embedding Model 2.4 Results 2.4.1 Generalization and Zero-Shot Learning 2.5 Conclusion 3. 마치며 3.1 why zero-shot learning 3.2 embedding based approach for Zero-shot lea.. 2022. 4. 28.
Programmers - 전력망을 둘로 나누기[파이썬(python)] 문제 출처 : https://programmers.co.kr/learn/courses/30/lessons/86971 코딩테스트 연습 - 전력망을 둘로 나누기 9 [[1,3],[2,3],[3,4],[4,5],[4,6],[4,7],[7,8],[7,9]] 3 7 [[1,2],[2,7],[3,7],[3,4],[4,5],[6,7]] 1 programmers.co.kr 문제 설명 n개의 송전탑이 전선을 통해 하나의 트리 형태로 연결되어 있습니다. 당신은 이 전선들 중 하나를 끊어서 현재의 전력망 네트워크를 2개로 분할하려고 합니다. 이때, 두 전력망이 갖게 되는 송전탑의 개수를 최대한 비슷하게 맞추고자 합니다. 송전탑의 개수 n, 그리고 전선 정보 wires가 매개변수로 주어집니다. 전선들 중 하나를 끊어서 송전탑.. 2022. 4. 28.