LLM(Large Language Model)의 놀라운 성능 뒤에는 Autoregressive Models(자가회귀 모델)이라는 강력한 기술이 자리하고 있다. Autoregressive Models는 현재까지의 입력 데이터를 기반으로 다음 토큰(단어, 문자 등)을 순차적으로 예측하는 방식으로 작동한다. GPT 시리즈와 같은 대규모 언어 모델은 이러한 원리를 활용하여 텍스트 생성, 번역, 질문 응답 등 다양한 작업에서 뛰어난 성능을 발휘한다.Autoregressive Models의 작동 원리Autoregressive Models는 조건부 확률을 활용해 텍스트를 생성한다. 텍스트 생성 과정은 다음과 같다: 1. 조건부 확률 계산주어진 텍스트가 일 때, 다음 토큰 의 확률을 계산한다. 즉, 모델은 를 학..
LLM(Large Language Model)은 사전 학습된 방대한 데이터를 바탕으로 다양한 작업에서 뛰어난 성능을 발휘하지만, 모든 작업에 대해 추가적인 Fine-Tuning을 거치는 것은 비효율적이다. 이를 해결하기 위한 혁신적인 접근 방식이 바로 In-Context Learning(문맥 기반 학습)이다. In-Context Learning은 모델이 실시간으로 주어진 입력(문맥)만을 바탕으로 새로운 작업을 수행할 수 있도록 한다. In-Context Learning의 기본 개념 In-Context Learning은 모델이 사전 학습 단계에서 얻은 지식을 활용해, 새로운 데이터를 실시간으로 학습하지 않고도 이해하고 작업을 수행할 수 있게 한다. 이 과정에서 모델은 “학습된 가중치”를 변경하지 않고도, ..