
총 3개
-
자연언어처리4공통형 7강까지 학습한 모델 알고리즘 중 하나를 적용한 논문에서 모델이 어떻게 사용되었는지 기술2025.01.261. BERT 모델 적용 논문 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"에서 BERT 모델은 자연어 처리(NLP) 분야의 다양한 언어 이해 작업을 해결하기 위해 사용되었습니다. BERT는 문맥 이해, 단어의 다의성 해결, 사전 훈련과 미세 조정, 모델의 일반화 능력 향상 등의 문제를 다루고자 했습니다. 이를 위해 BERT는 양방향 문맥 처리, Masked Language Model, Next Sentence Prediction ...2025.01.26
-
벡터 데이터베이스2025.05.081. 벡터 데이터베이스 벡터 데이터베이스는 복합 비정형 데이터를 효과적이고 효율적으로 저장하고 검색하기 위한 기술입니다. 단어나 문장과 같은 정보를 숫자로 변환하여 숫자와 유사한 것을 찾는 방식의 데이터베이스입니다. 기존 데이터베이스는 텍스트 기반 검색을 사용했지만, 벡터 데이터베이스는 숫자 기반 검색을 사용합니다. 이를 통해 비정형 데이터와 벡터 데이터를 효율적으로 저장할 수 있습니다. 이 기술의 배경에는 뉴럴 네트워크(CNN)의 발달로 복합 비정형 데이터를 정확하게 임베딩하여 숫자(벡터)로 표현할 수 있게 된 것이 있습니다. 예...2025.05.08
-
Transformer 기술이 바꿔버린 AI의 세상2025.05.081. Transformer 기술 Transformer 기술의 출현은 NLP 분야의 혁명과 같았습니다. RNN(순환 신경망)과 같은 이전 기술은 병렬 처리가 불가능하여 GPT와 같은 많은 양의 언어학습을 위해서는 수백년이 걸릴수 있었습니다. 반면, Transformer 기술은 병렬 처리가 가능하여 여러개의 GPU를 병렬로 가동시키면 수백년걸릴 학습기간을 몇개월로 단축시킬 수 있어 대규모 언어를 학습하는 데 사용할 수 있게 되었습니다. 이는 GPT와 같은 생성 AI의 발전에 중요한 획을 그었습니다. 2. Attention 메커니즘 At...2025.05.08