Jeffrey Erickson | Senior Writer | 2024년 11월 21일
범용 대규모 언어 모델 또는 LLM은 다양한 주제에 대해 논의하고 용어 논문을 작성할 수 있고 메모 및 기타 여러 작업을 수행할 수 있기 때문에 대중에게 인기가 있습니다. 그러나 비즈니스에서는 이러한 일반 출력물은 도움이 안 됩니다. 특정 기기의 기술 지원을 제공하기 위해 설계된 LLM은 해당 분야의 전문 지식을 활용해야 합니다.
현재 생성형 AI 모델이 이와 같은 전문성을 반영하는 응답을 제공할 수 있도록 지원하는 두 가지 방법이 있습니다. 미세 조정 및 검색 증강 생성(RAG)입니다. 각각은 고유한 이점 및 도전과 함께 제공됩니다. 이러한 옵션의 작동 방식과 사용 시기를 자세히 살펴보겠습니다.
핵심 요점
검색 증강 생성의 약어인 RAG는 범용 AI 모델이 조직에 적합하고 유용한 출력을 제공할 수 있도록 돕기 위해 Meta의 연구원이 개발한 아키텍처 프레임워크입니다. RAG는 대형 언어 모델 또는 LLM에 원래 학습 데이터를 보강하는 데 사용할 수 있는 내부 지식 기반에 대한 액세스를 제공합니다. 결과적으로 LLM의 언어 유창성을 로컬 데이터와 결합하여 타기팅된 상황에 맞는 적절한 응답을 제공하는 AI 시스템이 탄생했습니다. 이 접근 방식은 AI 모델 미세 조정과 달리 기본 모델 자체를 수정하지 않고도 작동합니다.
생성형 AI의 응답에 LLM 훈련에 포함되지 않은 최신 또는 조직별 데이터를 제공하는 것이 중요한 경우 RAG를 사용합니다. 예를 들어, 기업이 자사의 제품 또는 일상 업무에 대한 신뢰할 수 있는 정보를 광범위하게 모은 경우, RAG 아키텍처는 해당 데이터를 제공해 LLM을 통해 전달되는 프롬프트 및 응답을 보강함으로써 보다 유용하고, 검증 가능하고, 정확한 결과를 얻을 수 있게 해 줍니다. 의사의 노트를 환자 또는 다른 임상의가 신속하게 사용할 수 있으므로 헬프 데스크 자동화, 소매 제품 가용성 검사, 의료 서비스까지 개선할 수 있습니다.
산업 전반에 걸쳐 RAG의 일반적인 이점으로는 보다 완벽하고 우수한 데이터 검색, 향상된 고객 지원, 개인화된 콘텐츠 생성 기능이 있습니다. 조직은 LLM에 최신 정보를 추가함으로써 AI 에이전트를 배포하여 사용자 쿼리에 대한 상황에 맞는 실시간 답변을 제공함으로써 인적 개입의 필요성을 최소화할 수 있습니다. RAG의 다양성을 통해 다음을 포함한 광범위한 애플리케이션에 적응할 수 있습니다.
생성형 AI 모델을 미세 조정한다는 것은 Anthropic의 Claude 2, Cohere의 Command, Meta의 Llama 2와 같은 범용 모델을 취하여, 더 작고 도메인별 데이터 세트에 대해 추가적인 훈련을 반복하고, 이 훈련을 바탕으로 모델의 매개 변수를 조정하는 것을 의미합니다. 파인 튜닝은 코딩이나 의료와 같은 특정 도메인의 뉘앙스 및 용어에 맞게 조정되었기 때문에 모델이 특정 작업에 대해 더 잘 수행되도록 도와줍니다.
특정 도메인에서 LLM을 사용해야 하는 경우 미세 조정을 선택합니다. 추가 교육을 통해 LLM은 프롬프트를 더 잘 이해하고 특정 분야의 뉘앙스와 용어를 반영하는 출력을 제공할 수 있습니다. 교육 과정을 위해 선별된 대용량 데이터 세트 또는 문서 저장소를 이용할 수 있어야 하지만, 미세 조정은 생성된 콘텐츠의 스타일, 어조 및 방식을 보다 효과적으로 제어할 수 있기 때문에 많은 노력을 기울여야 합니다. 이는 마케팅 자료 또는 고객 상호 작용에서 빛을 발할 수 있습니다. RAG와 같은 미세 조정은 의학, 코딩 및 기타 고도로 전문화된 도메인에도 도움이 될 수 있습니다.
일반 AI 모델을 특정 작업 또는 도메인에 적용하는 프로세스인 미세 조정은 특히 개인화 및 전문화가 핵심인 경우 다양한 조직의 결과를 크게 향상시킬 수 있는 강력한 기술입니다. 다음은 특히 효과적일 수 있는 몇 가지 일반적인 사용 사례입니다.
미세 조정과 RAG 모두 범용 LLM의 유용성을 높여주지만, 각기 다른 방식으로 가능합니다. 간단히 말해 LLM을 미세 조정하면 의학 또는 교육과 같은 특정 도메인에 대한 심층적인 이해를 얻을 수 있고, LLM과 RAG 아키텍처를 결합하면 응답을 위한 최신 로컬 데이터에 액세스할 수 있다는 것입니다.
두 가지를 함께 사용하면 세심하고 시의적절한 답변을 얻을 수 있지 않을까요? 이는 점점 확산되는 트렌드이며, 심지어 자체 약어까지 가지고 있습니다. RAFT(검색 강화형 미세 조정)입니다. 이 하이브리드 접근 방식을 사용하면 특수 도메인 데이터에 대해 미세 조정된 모델이 RAG 아키텍처에 배포됩니다. 이 아키텍처에서는 도메인 전문 지식을 사용하여 응답 생성 중에 가장 관련성이 높은 정보를 검색합니다. 결과적으로 매우 정확하고 관련성이 높으며 컨텍스트를 인식하는 출력이 생성됩니다.
RAFT에 대해 조금 후에 더 자세히 논의할 예정이지만, 먼저 두 가지 접근 방식에 대해 더 잘 이해해 보겠습니다.
RAG와 미세 조정은 모두 LLM이 원래의 일반화된 학습 데이터 세트에서 가져온 일반적인 응답을 넘어서는 데 도움이 됩니다. 미세 조정에는 특정 도메인 또는 조직과 관련된 데이터 세트를 사용하여 추가 교육 과정을 거치는 LLM이 포함됩니다.
또한 RAG는 LLM의 응답을 변경하지만, 기본 모델은 변경되지 않습니다. 대신, RAG 시스템은 로컬 데이터베이스 또는 선별된 문서 모음을 사용하여 LLM의 응답에 최신 세부 정보를 제공하는 경우가 많습니다.
이 두 가지 접근 방식의 한계와 이점은 자연스럽게 강점을 결합하는 추세가 커지고 있습니다. 결과적으로 RAFT라는 하이브리드 접근 방식이 생겨났습니다.
RAG 아키텍처 또는 미세 조정 아키텍처 사용 중에서 선택하는 것은 보유한 리소스와 LLM 사용 방법에 달려 있습니다. 아래 표에 나와 있듯이 대부분의 사용 사례는 두 가지 접근 방식을 결합하려는 노력의 이점을 누릴 수 있습니다. 대부분의 기업은 미세 조정을 위해 노력한 후 RAG가 자연스럽게 추가됩니다. 그러나 다음 여섯 가지 질문을 통해 우선 순위를 결정해야 합니다.
| 사용 사례 요구사항 | RAG | 미세 조정 | RAFT |
|---|---|---|---|
| 응답에 최신 로컬 정보가 포함되어야 합니다. | 예 |
아니요 |
예 |
| 응답은 높은 수준의 설명 가능성을 포함해야 합니다. | 예 |
아니요 |
예 |
| 응답은 조직의 심층적인 영역별 지식을 반영해야 합니다. | 예 |
예 |
예 |
| 조직은 AI 학습을 위한 강력한 신경망 및 GPU 리소스에 액세스할 수 있습니다. | 아니요 |
예 |
예 |
| 응답은 조직의 어조 및 마케팅 언어를 반영해야 합니다. | 아니요 |
예 |
예 |
| 조직은 AI가 응답을 도출하고 인용할 수 있도록 잘 조직화된 최신 문서 모음을 보유하고 있습니다. | 예 |
아니요 |
예 |
| AI 시스템은 제한된 런타임 리소스에 액세스할 수 있습니다. | 아니요 |
예 |
예 |
| 조직은 AI를 교육하고 미세 조정하기 위해 선별된 대규모 데이터 세트와 문서 저장소를 보유하고 있습니다. | 예 |
아니요 |
예 |
RAG를 선택하든, 미세 조정을 선택하든, Oracle은 OCI의 강력한 성능과 다양한 오픈 소스 또는 독점 LLM이 포함된 완전 관리형 서비스인 Oracle Cloud Infrastructure(OCI) Generative AI를 통해 귀사의 생산성 향상을 지원합니다.
Oracle은 귀사의 LLM과 RAG를 손쉽게 결합함으로써 귀사가 다양한 지식 기반에 기반한 최신 응답을 얻을 수 있도록 지원합니다. 미세 조정을 사용할 때 Oracle AI 인프라는 좋은 선택입니다. 65,536개의 GPU까지 확장 가능한 슈퍼클러스터를 만나보실 수 있습니다. 이는 대규모 언어 모델(LLM) 응답, 컴퓨터 비전, 예측 분석 등 가장 요구사항이 높은 훈련 및 추론 작업 부하를 처리하기에 충분한 성능을 제공합니다.
범용 LLM은 Anthropic, Cohere, Google, Meta 등의 새로운 버전을 통해 지속적으로 개선되고 있습니다. 그러나 이러한 AI 모델이 인간의 언어를 얼마나 자주 처리하든 상관없이 비즈니스 사용 사례의 특정 요구 사항에 해당 기술을 연결할 수 있는 방법이 항상 필요합니다. 미세 조정 및 RAG는 현재 이 작업을 수행하는 데 가장 적합한 두 가지 방법입니다. AI 모델, 하드웨어 및 데이터 아키텍처가 발전함에 따라 이 기술들도 계속 진화할 것으로 예상됩니다.
AI 전문가 집단(CoE)은 RAG의 도입 과정에서 중추적인 역할을 수행합니다. CoE가 없나요? e-book을 통해 CoE의 구성 및 활용 방법을 확인해 보세요.
RAG가 미세 조정보다 나은가요?
RAG와 AI 모델 미세 조정은 자체적인 이점과 비용이 서로 다릅니다. 두 가지 모두 생성형 AI 모델의 유용성을 높이기 위한 인기 있는 방법이며, 각 조직은 자사의 니즈에 가장 적합한 방법을 선택해야 합니다. 또 다른 인기 있는 방법은 두 가지 접근 방식을 결합한 RAFT(검색 강화형 미세 조정)입니다.
RAG보다 더 좋은 것은 무엇인가요?
RAG는 단순히 기업의 데이터와 문서를 참조하여 LLM이 더 나은 응답을 제공할 수 있도록 지원하는 기술입니다. GraphRAG라는 방법은 RAG 아키텍처가 자체적으로 수행할 수 있는 것 이상으로 LLM 응답을 더욱 향상시킬 수 있는 방법으로 등장했지만 아키텍처가 복잡하고 인기 있는 사용 사례가 아직 등장하지 않았습니다.
AI 모델의 미세 조정은 LLM이 보다 타기팅되거나 미묘한 응답을 제공하는 데 도움을 줄 수 있는 또 다른 방법이며, RAG와 결합하여 LLM의 성능을 더욱 향상시킬 수 있습니다.
RAG와 미세 조정을 함께 사용할 수 있나요?
예. 이 하이브리드 접근 방식은 특화된 도메인 데이터에 대해 미세 조정된 모델을 제공하고 RAG 아키텍처에 배포하여 응답 시 최신 또는 가장 관련성이 높은 정보를 제공할 수 있도록 합니다.
RAG와 전송 학습의 차이점은 무엇입니까?
RAG는 로컬의 최신 지식 기반에 액세스하여 LLM의 응답을 개선합니다. 전송 학습은 특정 도메인에서 작동하도록 미세 조정된 별도의 AI 모델에 액세스하여 범용 AI 모델의 응답을 개선합니다.
