앞서 Facebook AI Research에서 2020년도 처음으로 제시한 RAG 논문에 대해서 살펴보았다. 다시 한번 짚어보자면 non-parametric memory를 활용할 수 있도록 Retriever와 Generator를 각각 결합하는 방식으로 포괄적인 Fine-tuning 방법을 제시한 바 있다.이때, 논문에서는 Retriever는 DPR, Generator를 BART로 활용했으며, Retriever는 쿼리(q)에 알맞은 문서(d)들을 가져오고, Retriever가 변환한 쿼리와 문서를 Generator에 넣어 최종적인 Sequence를 뽑아내는 방식을 제시했다. 사실, 이 부분은 현재 많이 알고 있는 RAG와는 조금 다르다. (나 역시 최근의 RAG를 먼저 보게 되었다 ㅎ;;)기존의 RAG..