대규모 언어 모델이란 무엇인가?

Joseph Tsidulko | Senior Writer | 2025년 7월 29일

대규모 언어 모델(LLM)은 주로 텍스트나 음성, 기타 방법으로 제공되는 사용자 입력에 대해 인간이 하는 것과 비슷한 응답을 생성하도록 설계된 인공지능으로, 점점 더 널리 사용되고 있습니다. LLM은 대량의 텍스트를 학습하고, 프롬프트로 제공된 맥락에 따라 다음에 올 단어나 문장을 예측하는 방법을 학습하며, 나아가 특정 작가나 장르의 글쓰기 스타일을 모방할 수도 있습니다.

LLM은 2020년대 초반에 연구실을 벗어나 대중에게 알려졌습니다. 그 이후로 요청을 해석하고 관련 응답을 생성하는 놀라운 기능 덕분에 독립형 제품 및 다양한 유형의 비즈니스 소프트웨어에 내장된 부가적인 기능으로 발전하며 자연어 처리, 기계 번역, 콘텐츠 생성, 챗봇, 문서 요약 등을 제공했습니다.

이 기술은 대규모 데이터 세트를 통합하고 모델 성능 향상을 위한 학습 및 튜닝 단계를 추가하며 계속해서 빠르게 진화하고 있습니다. 더욱 강력해진 컴퓨팅 인프라를 통해 좀 더 폭넓고 심층적인 훈련이 가능하게 되었고, 덕분에 기업의 목표 달성 계획을 수립하는 데 활용할 수 있는 추론 기능이 점점 더 정교해지고 있습니다. 이러한 추론 기능은 AI 에이전트의 기능을 강화하기도 합니다. AI 에이전트에 고급 LLM이 적용되면 인간 운영자가 설정해 둔 작업을 에이전트가 완료할 수 있습니다.

대규모 언어 모델이란 무엇인가?

대규모 언어 모델은 책, 웹 및 기타 출처에서 가져온 수십억 개의 단어로 구성된 방대한 데이터 세트를 학습한 뒤 쿼리에 대해 인간과 비슷하고 맥락에 맞는 응답을 생성할 수 있는 인공지능 시스템입니다. LLM은 질문(LLM 관련 용어로는 '프롬프트')을 이해하고 자연어 응답을 생성하도록 설계되었으므로 고객 질문에 대한 답변, 보고서 정보 요약, 언어 번역, 시 작성, 컴퓨터 코드 작성, 이메일 초안 작성 등의 작업을 수행할 수 있습니다. 일반적으로 LLM은 학습한 언어의 문법과 의미를 깊이 이해하고 있습니다. 기업의 자체 데이터를 사용하여 맞춤형 응답을 제공하도록 LLM을 구성할 수도 있습니다.

LLM은 이렇게 놀라운 능력을 가지고 있지만, 사용자는 그 한계점도 잘 알고 있어야 합니다. 오래된 데이터와 불량한 프롬프트가 제공되면 챗봇이 기업의 제품에 대해 잘못된 답변을 제공하는 등의 실수를 초래할 수 있습니다. 데이터가 충분하지 않으면 LLM이 잘못된 답변을 지어낼 수도 있습니다(환각 현상). 그리고 LLM은 예측은 잘하지만 그러한 결론을 도출한 이유는 잘 설명하지 못합니다. 최근의 LLM에서는 이러한 부분을 개선하고자 노력하고 있습니다.

그럼에도 불구하고 LLM은 자연어 처리 분야에서 상당한 진전을 이루었습니다. 비즈니스 활용도가 무궁무진해서 새로운 애플리케이션이 빠르게 개발되고 도입되고 있습니다.

핵심 요점

  • 대규모 언어 모델은 자연어 처리 분야의 최첨단 기술로, 오디오와 이미지를 생성할 수 있는 멀티모달 AI 개발에도 적용되고 있습니다.
  • '대규모'는 지정된 프롬프트에 대한 출력을 결정할 때 모델이 평가하는 매개변수의 개수를 말하는 상대적인 용어입니다.
  • LLM은 2022년 OpenAI의 GPT-3.5 모델을 대중에게 공개한 애플리케이션인 ChatGPT의 출시로 급부상했습니다. 다른 인기 모델로는 Llama, Gemini 및 Cohere Command R이 있습니다.

대규모 언어 모델 알아보기

자연어 처리는 1960년대부터 인공지능 분야에서 적극적으로 연구하던 분야였으며, 초기 언어 모델은 수십 년 전에 등장했습니다. 모델을 더 정교하게 만들기 위한 다층 신경망 구조의 머신러닝 기법인 딥 러닝이 도입된 대규모 언어 모델의 탄생 덕분에 이 분야는 추진력을 얻게 되었습니다. LLM의 또 다른 특징은 파운데이션 모델의 학습이 데이터에 레이블을 지정하는 인간의 개입 없이 이루어진다는 점입니다. 이를 자기 지도 학습이라고 합니다.

LLM의 현대적 개념은 2017년에 혜성처럼 등장한 Google의 논문을 통해 탄생했습니다. 이 논문에서는 트랜스포머 네트워크라는 강력하고 새로운 아키텍처에 대해 기술합니다. 트랜스포머에는 병렬로 처리할 수 있는 셀프 어텐션 메커니즘이 적용되었는데 이를 통해 모델 학습 및 배포를 가속화하고 비용을 절감할 수 있습니다. OpenAI는 이 아키텍처를 적용하여 최초의 현대적 LLM으로 인정받는 GPT-1을 개발했습니다.

기업들은 LLM을 수많은 사용 사례에 적용할 수 있으며, LLM이 기업의 생산성과 효율성, 고객 응대를 개선할 엄청난 잠재력을 지녔다는 사실을 빠르게 깨달아가고 있습니다.

LLM과 다른 AI 모델의 비교: 효율성 및 확장성

LLM은 머신러닝 프로세스를 통해 개발된 다양한 유형의 AI 중 하나입니다. 그러나 이러한 모델을 정의하고 구별하는 몇 가지 요소가 있습니다. 가장 중요한 것은 규모입니다. 대규모 언어 모델(LLM)에서 뜻하는 '대규모'는 최종 출력을 계산하는 매개변수의 수와 해당 매개변수를 조정하여 모델 학습에 사용되는 데이터의 양을 나타냅니다.

  • 크기 및 성능: LLM은 모델의 크기로 정의합니다. 이 크기에는 출력을 결정하는 매개변수의 개수가 반영됩니다. 주요 모델은 불과 몇 년 만에 기하급수적으로 커졌습니다. 예를 들어 GPT-1에는 1억 개가 조금 넘는 매개변수가 있었지만, 최신 후속 모델인 GPT- 4에는 (비록 OpenAI가 그 실제 크기를 공개하지는 않았으나) 1조 7,500억 개 이상의 매개변수가 있는 것으로 추정됩니다.

    일반적으로 모델의 크기가 크고 학습 데이터 세트가 방대할수록 인간의 이해 및 언어 생성 능력을 제대로 모방하여 독창적이고 관련성 높은 응답을 더 잘 생성할 수 있습니다. 성능은 퍼플렉시티로 측정할 수 있습니다. 퍼플렉시티는 모델이 출력 시퀀스에서 다음 단어를 얼마나 잘 예측할 수 있는지를 정량화하는 척도입니다.

    일반적으로 모델의 규모가 클수록 성능이 우수한 경향이 있지만, 모든 면에서 그렇지는 않습니다. 있을 수 있는 단점으로는 더 긴 지연시간(모델이 프롬프트에 답변하는 데 걸리는 시간), 필요한 컴퓨팅 인프라의 규모로 인한 확장의 어려움 등이 있습니다. 또한 특정 기업 사용 사례에 맞게 사용자 정의하기가 더 까다롭습니다. 한정적인 분야 및 사용 사례에 대해서는 여전히 우수한 성능을 기대할 수 있지만, 위와 같은 이유로 인해 더 경제적으로 배포할 수 있는 소규모 LLM을 개발하려는 노력도 상당한 실정입니다.
  • 확장성 및 배포: LLM은 여러 가지 방식으로 배포할 수 있습니다. OpenAI, Google, Cohere와 같은 상용 공급업체는 브라우저, 앱 또는 API 호출로 호스팅된 서비스를 통해 모델을 제공합니다. 그러나 많은 기업은 자체 LLM을 호스팅하는 것을 선호합니다. 즉, 보통 자체 기업 데이터로 미세 조정 내지 증강한 파운데이션 모델을 로컬 서버나 퍼블릭 클라우드 환경에 호스팅하여 모델 실행의 추론 단계를 실행하고자 합니다. 이후 개인과 소프트웨어는 직접 호출이나 API 엔드포인트를 통해 모델과 상호 작용하게 됩니다.

    배포 방식과 무관하게, LLM(특히 대중이나 대규모 인력이 사용할 수 있는 LLM)은 기업 예산을 낭비하지 않고도 예상 수요를 맞출 수 있도록 확장 가능해야 합니다. 이 확장의 경제학에는 절충안이 있습니다. 더욱 강력한 추론 인프라, 분산 컴퓨팅, 효과적인 로드 밸런싱 및 캐싱과 같은 확장 방식은 모두 비용이 많이 듭니다. 비용 편익 균형을 제대로 맞추지 못하면 지연시간이 발생하여 애플리케이션을 실시간으로 실행하는 능력이 떨어지거나, 성능이 불안정해지거나, 직원들의 활용 속도가 저하되거나, 데이터 개인정보 보호 및 보안 조치가 미흡해질 수 있습니다.
  • 분야 적응성: 가장 우수한 파운데이션 모델이라면 높은 수준의 추상적 데이터를 통합하여 출력에서 창의성을 보여줄 수 있어야 합니다. 적절한 기반과 기능을 갖춘 파운데이션 모델을 선택하고 나면 미세 조정을 통해 특정 분야의 사용 사례에 대한 성능을 강화할 수 있습니다. 이러한 지도 학습 단계를 통해 파운데이션 모델을 근본적으로 재훈련하지 않고도 LLM을 원하는 분야에 맞게 조정할 수 있습니다.

    개발 초기 학습 및 미세 조정 단계에서 분야 간에 공통적인 특징을 보이는 데이터를 강조함으로써 특징 분포를 맞추는 것도 도메인 적응성을 높이는 효과적인 방법입니다.

    대규모 언어 모델 다이어그램
    이 다이어그램은 대규모 언어 모델의 학습 후 예측 방식을 보여줍니다. 학습 단계에서는 모델이 패턴을 학습합니다. 그런 다음 추론 단계로 이동하여 인사이트나 예측을 생성하기 위해 새 데이터를 처리합니다.
    LLM은 광범위하게 훈련된 신경망을 활용하여 프롬프트를 평가하고 응답하는 일종의 언어 생성 AI입니다. 여기서 '대규모'를 정의하는 기준은 없습니다. 모델이 더욱 정교해지고 컴퓨팅 성능, 특히 GPU 클러스터에 대한 접근성이 좋아짐에 따라 그 기준은 계속해서 높아지고 있습니다.

    모델 학습을 시작하기 전에, 언어는 컴퓨터가 이해할 수 있도록 단어나 문자 및 발화의 일부를 숫자로 나타낸 토큰으로 변환됩니다.

    그런 다음 광범위한 컴퓨터 신경망이 포함된 알고리즘과 데이터 세트가 선택되어 자기 지도 학습이 진행됩니다. 학습이 진행되는 동안 알고리즘은 모델이 프롬프트에 적절하게 응답할 때까지 수십억 또는 수십억 개의 매개변수를 조정하여 시퀀스에서 다음 토큰을 정확하게 예측합니다. 따라서 모델의 매개변수에는 학습 단계에서 내용이 포함됩니다.
  • 핵심 트랜스포머 아키텍처: 트랜스포머는 LLM 및 생성형 AI에 대한 현재의 열풍을 불러일으킨 개념적 도약이었습니다. 2017년 Google의 연구자들이 발표한 획기적인 논문에서 제안된 트랜스포머 아키텍처는 기존의 언어 모델 생성 접근 방식에서 벗어난 것이었습니다. 입력과 출력이 연속적으로 반복되는 순환적 프로세스를 고수하는 대신, 트랜스포머는 문장을 처리할 때 여러 단어(텍스트 흐름에서 서로 멀리 떨어져 있는 단어조차도) 간의 관계를 동시에 고려하는 '셀프 어텐션'이라는 메커니즘을 구현합니다. 이 작업을 위해 서로 다른 3개의 벡터가 생성됩니다. 하나는 관심 단어에 대한 벡터이고, 다른 하나는 주변 단어가 관심 단어를 이해하는 데 미치는 중요도를 계산하기 위한 벡터이고, 마지막 하나는 관심 단어에 포함된 정보를 나타내는 벡터입니다. 이 마지막 벡터는 단어의 컨텍스트에 따라 값이 달라집니다. 예를 들어 '검다'는 색을 의미할 수도 있고, 속이 엉큼하다는 것을 의미할 수도 있고, "얼굴에 검은 그늘이 드리웠다"와 같이 암담함을 의미할 수도 있습니다.

    예를 들어 텍스트 문자열은 다음과 같습니다.
    그녀가 물었다. "그 사람 어때요?"

    "잘 모르겠네요," 그는 대답했다. "오늘 대화를 나누어 봤는데 속이 검은 사람 같아요."

    프로세스에 셀프 어텐션이 포함되기 전에는 알고리즘이 '엉큼하다'와 '검다' 간의 관계성을 파악할 방법이 없었기 때문에 해석이 잘못될 수 있었습니다. 셀프 어텐션을 사용하면 두 단어가 순서상 서로 가까이 있지 않더라도 연결의 중요도를 계산할 수 있습니다.

    또한 셀프 어텐션을 사용하면 방대한 양의 데이터를 병렬로 학습할 수 있으며, 기본적으로 단어 단위가 아닌 문장 단위로 처리할 수 있습니다. 이는 GPU의 기능을 더욱 잘 활용할 수 있는 방식입니다. 또한 트랜스포머는 프롬프트에서 토큰을 동시에 분석하여 답변을 더 빠르게 제공하고 모호성을 더 잘 해결할 수 있습니다.
  • 학습 및 미세 조정: 현재 활발히 사용되는 LLM인 파운데이션 모델은 인터넷 및 기타 문서 정보 저장소에서 가져온 데이터 코퍼스로 학습합니다. 수십억 개의 매개변수가 반복적으로 조정되는 이 자기 지도 학습을 통해 성공적으로 탄생한 모델은 일반화된 출력을 잘 제공하는 경향이 있습니다. 즉, 맥락을 고려하여 텍스트를 생성하고, 다양한 말투에서 의미를 이해하고, 복잡하거나 추상적인 아이디어를 잘 제시합니다.

    파운데이션 모델을 미세 조정하면 정확도를 개선하고 보건의료나 재무와 같은 특정 분야 또는 번역이나 요약과 같은 사용 사례를 위한 성능을 최적화할 수 있습니다. 미세 조정 프로세스에서는 파운데이션 모델에서 시작하여 최종 LLM을 더 작고 정밀한 레이블 지정 데이터 세트로 심화 훈련하여 특정 비즈니스 분야나 애플리케이션에 유용한 작업을 처리할 수 있는 능력을 강화합니다.
  • 모델과 확장성의 중요성: LLM 개발자는 궁극적으로 알고리즘으로 학습할 매개변수의 개수와 이를 효과적으로 수행하는 데 필요한 데이터의 양을 결정합니다. 개수가 많을수록 모델이 더 복잡해지며 대개 출력의 고유성, 정확도, 관련성이 높아집니다. 그러나 이렇게 하면 탁월한 성능을 얻는 대신 높은 학습 및 운영 비용이 들고, 모델 학습 이후에 서비스를 더 많은 사용자에게 제공하고자 할 때 확장하기가 어려워집니다.

    모든 LLM 배포의 확장성은 모델의 품질에 좌우되는 부분이 있습니다. AI 개발자가 선택한 학습 알고리즘, 모델 아키텍처, 데이터 세트 모두가 파운데이션 모델이 메모리, 프로세서, 에너지와 같은 리소스 소비를 얼마나 잘 최적화하여 원하는 기능을 수행하는지에 영향을 미칩니다.

    학습 데이터의 모델 크기와 코퍼스를 줄임으로써 LLM의 성능에 큰 영향을 미치지 않으면서도 (특히 상대적으로 한정적인 사용 사례에 사용되는 LLM일 경우) 확장에 수반되는 비용과 어려움은 개선한 새로운 기술들도 등장하고 있습니다.

대규모 언어 모델의 이점 및 응용 분야

LLM은 다양한 최첨단 응용 분야에서 원동력이 되어 줍니다. OpenAI의 브라우저 기반 GPT-3.5 모델인 ChatGPT, GPT-4o 및 GPT-4 등의 최신 버전이 출시되며, 대중들도 입을 다물기 어려울 정도로 놀라운 LLM의 능력을 알게 되었습니다. 그러나 LLM의 이점은 이에 그치지 않고 금융 서비스, HR, 소매, 마케팅 및 판매, 소프트웨어 개발, 고객 지원, 의료 등 다양한 산업 및 사업 부문으로 뻗어나가고 있습니다.

LLM의 인기 비즈니스 응용 분야로는 고객 서비스 챗봇, 고객 감정 분석, 맥락에 맞는 자연스러운 구어체 번역 서비스 등이 있습니다. 또한 LLM은 제약 연구 과정에서 단백질 구조를 예측하고, 소프트웨어 코드를 작성하고, 기업들이 비즈니스 프로세스를 자동화하기 위해 점점 더 많이 배포 중인 에이전트를 구동하는 등 보이지 않는 곳에서 더욱 전문적인 작업을 수행하고 있습니다.

  • 다양한 응용 분야에서의 다기능성: LLM은 소비자 응대 및 엔터프라이즈용 애플리케이션을 지원하는 핵심 기술로, 지원할 수 있는 애플리케이션의 종류도 다양하고 그 수도 늘어나고 있습니다. 이러한 다기능성은 대규모 데이터 세트를 기반으로 모델을 자체 훈련하는 프로세스 덕분입니다. 이 프로세스를 통해 데이터에서 복잡한 패턴을 분석하여 관련성 높은 출력을 맥락에 맞게 생성하는 데 매우 적합한 AI를 얻을 수 있습니다.

    최첨단 애플리케이션은 이러한 속성을 활용하여 독특한 마케팅 사본 및 보고서를 작성하고, 고객 감정을 측정하고, 문서를 요약하고, 이미지 및 오디오와 같이 비언어적 출력을 생성하는 등의 작업을 수행합니다. 특히 AI 에이전트는 전문 지식이 없어도 환경과 상호 작용하고 여러 분야의 작업을 수행할 수 있다는 면에서 LLM의 다기능성의 표본이라고 할 수 있습니다.

    지도 학습을 통해 모델을 미세 조정하는 프로세스는 생성형 AI를 기반으로 구축할 수 있는 비즈니스 애플리케이션의 범위를 더욱 확장합니다. 또한 RAG는 엔터프라이즈 환경에서 LLM을 더욱 효과적으로 활용할 수 있도록, 기본 모델을 변경하지 않아도 지속적으로 업데이트할 수 있는 자체 비즈니스 데이터를 통합하여 출력의 정확도와 관련성을 개선합니다.
  • 고객 상호 작용 개선: LLM은 고객 서비스 분야에서 그 진가를 빠르게 입증했습니다. 미묘한 질문에 명확하고 상세하며 유용한 출력을 잇달아 내놓으며 대화를 나누는 LLM의 능력을 경험한 사람이라면 누구나 이 사용 사례를 납득할 수 있을 것입니다.

    그러나 LLM은 챗봇 이외에도 다양한 방식으로 고객 상호 작용을 개선할 수 있습니다. 어떤 기업은 LLM을 사용하여 고객을 대상으로 이메일이나 문자 메시지, 소셜 미디어 게시물을 생성하여 제품이나 기술, 영업 관련 질문을 처리합니다. 또 어떤 기업은 외국어를 사용하는 고객의 문의를 번역하기 위해 LLM을 사용합니다. 또한 LLM은 영업 및 지원 부서 담당자(인간 및 AI)를 지원하도록 구성되어 가용 정보와 관련 문서를 제공하고, 이전 상호 작용을 요약하고, 고객에게 후속 조치를 취하고, 상호 작용을 문서화하는 등의 작업을 수행할 수 있습니다.

    100개 이상의 국가에서 비즈니스를 수행하는 한 세계적인 규모의 전문 서비스 기업은 최근 LLM 기반의 생성형 AI 애플리케이션을 도입하여 고객 관계 관리에 집중하고 있습니다. 고객 피드백 설문 조사에서 더 많은 인사이트를 얻기 위해 이 회사는 LLM을 배포하여 고객 응답에서 감정을 분석했습니다. 이제 AI는 트렌드를 파악하고, 제품 및 서비스가 어떻게 전달되는지와 이를 개선하는 방법에 대한 광범위한 인사이트를 제공할 수 있습니다.
  • 자동화 및 생산성(Automation and Productivity): LLM은 과거의 AI 모델이 처리하기에는 너무 복잡한 의사 결정을 비롯하여, 반복 작업을 자동화하는 데 매우 효과적이라는 사실을 입증하고 있습니다. 이러한 자동화를 활용하면 직원들이 더 높은 수준의 창의적이고 비판적인 사고가 필요한 업무에 집중하도록 지원함으로써 직원의 생산성을 높일 수 있습니다.

    에이전트는 LLM의 정교한 추론 기능을 십분 활용하여 최소한의 인적 개입으로 워크플로를 수행하는 신기술입니다. 파운데이션 언어 모델을 기반으로 구축된 이러한 애플리케이션은 엔터프라이즈 환경 내에서 인간 및 기타 소프트웨어와 상호 작용할 때 의사 결정을 내리도록 설계되었으며, 다양한 분야에서 자율적으로 작업을 수행하고 검토나 승인이 필요한 작업에 대해서는 통지를 생성하여 관리감독을 지원할 수 있습니다.

    또한 LLM은 비즈니스 리더와 기타 의사 결정권자에게 관련 정보를 빠르게 제공하고, 마케팅 담당자를 위한 카피 문구의 초안을 작성하고, 개발자와 함께 소프트웨어 코드를 작성하는 등 다양한 방식으로 생산성을 높이고 있습니다.

대규모 언어 모델 사용 사례 및 예

LLM은 점점 더 다양한 비즈니스 사용 사례에 적용되고 있습니다. 일례로 현재 많은 기업들은 고객 서비스 전략의 일환으로 챗봇을 사용하고 있습니다. 그러나 이러한 모델의 다기능성이라는 장점을 눈여겨본 창의적인 엔터프라이즈 소프트웨어 개발자들은 이 기반 기술을 단순히 언어 응답을 생성하는 것 이상의 다양한 작업을 처리하고 있습니다.

1. 고객 지원 자동화

엔터프라이즈 환경에서 가장 돋보이는 LLM 응용 분야는 고객 지원, 특히 고객 응대입니다. 언어 모델을 기반으로 하는 대화형 사용자 인터페이스 또는 챗봇은 문의를 언제든지 거의 무제한으로 처리할 수 있습니다. 이를 통해 고객 불만의 주요 원인이기도 한, 업무 과중으로 인한 콜 센터 직원의 응답 시간 지연을 획기적으로 개선할 수 있습니다.

챗봇을 다른 LLM 기반 애플리케이션과 통합하면 기기 부품 교체, 문서, 설문 조사 전송과 같은 상담 전화 후의 후속 조치를 자동화할 수 있습니다. 또한 LLM은 시의적절한 정보, 감정 분석, 번역 및 상호 작용 요약을 제공함으로써 사람 담당자를 직접적으로 지원할 수 있습니다.

50개국 이상에서 80가지 언어로 운영되는 한 자산운용사는 이러한 기능을 활용하여 고객이 자신의 요구에 제일 잘 맞는 금융 상품을 쉽게 찾고 선택할 수 있도록 지원합니다. 은퇴 계좌를 전문적으로 관리하는 이 회사는 맞춤형 챗봇으로 고객 지원을 현대화함으로써 서비스 수준이 150% 증가하고 운영 비용이 30% 절감되는 효과를 누렸습니다. 고객들은 이제 이 회사의 웹 페이지를 방문하여 다양한 언어로 언제든지 챗봇에게 계좌 관련 질문을 할 수 있습니다.

2. 콘텐츠 생성 및 요약

LLM은 원본 콘텐츠를 생성하거나 기존 콘텐츠를 요약할 수 있습니다. 이 두 사용 사례 모두 모든 규모의 기업에 매우 유용한데, 보고서, 생성형 AI를 사용하여 이메일, 블로그, 마케팅 자료 및 소셜 미디어 게시물을 작성할 수도 있고, 생성된 콘텐츠를 LLM으로 특정 집단이나 개별 고객에게 맞춤화할 수도 있습니다.

요약은 방대한 양의 정보를 인간이 신속하게 검토하고 이해할 수 있는 형태로 해당 분야의 특성을 고려하여 축약하는 기능입니다. LLM은 텍스트 내 다양한 아이디어의 중요성을 평가한 다음, 주요 부분을 추출하거나 원본 텍스트에서 관련성이 가장 높고 중요한 정보라고 판단되는 내용을 개괄하는 방식으로 요약을 수행합니다.

간혹 LLM의 '요약 능력은 평균 정도'라는 비판도 있습니다. 이는 요약 내용이 지나치게 일반적이며, 원본 자료에 있는 주요 세부 사항이나 중요한 점을 누락하는 경우가 있다는 의미입니다. 또한 요약의 신뢰성을 측정하고 그에 따라 다양한 모델의 성능을 평가하는 것도 까다롭습니다. 그럼에도 불구하고 기업들은 이러한 역량을 적극적으로 도입하고 있습니다.

한 유수 클라우드 통신사는 LLM을 배포하여 매일 20가지에 달하는 언어로 올라오는 수백 개의 고객 지원 티켓과 채팅 기록을 자동으로 요약합니다. 이러한 요약 자료는 고객 지원 엔지니어가 고객의 문제를 더 신속히 해결하고 전반적인 경험을 개선하는 데 도움이 됩니다.

3. 언어 번역

Google이 트랜스포머를 개발할 당시의 초기 의도는 기계가 다양한 언어 쌍을 더 잘 번역하게 만드는 것이었으며, 이후에야 이 모델이 더 다양한 기능을 제공하며 개발자들에게 각광받게 되었습니다. 이 아키텍처를 처음 구현한 개발자들은 그 목표를 달성했고, 기존 모델에 비해 시간과 컴퓨팅 리소스가 훨씬 적게 드는 모델을 사용하여 영어-독일어 번역쌍에서 독보적인 성능을 제공할 수 있었습니다.

이 사용 사례가 한정적으로 보일 만큼, 현대 LLM의 사용 사례는 그보다 더 뛰어납니다. 대부분의 LLM은 특별히 번역기로 훈련되지는 않지만, 두 언어 모두에서 광범위한 데이터 세트로 학습한 경우 한 언어로 된 텍스트를 해석하여 다른 언어로 정확히 재작성하는 능력이 탁월합니다. 언어의 장벽을 무너뜨리는 이러한 변혁은 여러 국가에 걸쳐 운영되는 기업들에 매우 큰 의미가 있습니다. 다국적 기업은 고급 언어 서비스를 사용하여 제품 및 서비스에 대한 다국어 지원을 개발하고, 가이드와 자습서, 마케팅 자료를 번역하고, 새로운 국가로 진출할 때 기존 교육 자료를 사용하여 근로자를 교육합니다.

LLM의 미래

멀티모달 모델의 발전

LLM을 AI용 파운데이션 모델로 사용하여 언어 이외의 형태(모달리티)로 출력을 생성하는 연구가 활발히 진행되고 있습니다. LLM의 놀라운 다기능성 덕분에, 레이블 지정된 데이터를 사용한 미세 조정 프로세스를 거치면 오디오와 이미지뿐만 아니라 동영상까지도 해석하고 생성할 수 있습니다. 프롬프트를 수신하거나 언어 이외의 영태로 출력을 생성하는 이러한 모델을 대규모 멀티모달 모델(LMM)이라고도 합니다.

환경 고려 사항

LLM은 대규모로 개발 및 운영되는 경우가 일반적이므로 막대한 컴퓨팅 성능이 필요합니다. 몇 주에 걸쳐 수백에서 수천 개에 이르는 GPU 클러스터로 단일 모델을 훈련하면 엄청난 양의 에너지가 소비될 수 있습니다. 그리고 모델을 성공적으로 배포한 뒤에도, 추론을 실행하는 인프라는 실제 운영 환경에서 끊임없는 사용자 쿼리를 처리하느라 상당한 전력을 소모합니다.

GPT-4를 훈련하는 데에는 약 50기가와트시(GWh)의 에너지가 들었습니다. 비교해 보자면, 50기가와트시의 에너지는 이론적으로 미국의 평균적인 가정 4,500~5,000곳에 전력을 공급할 수 있는 양입니다. 현재 ChatGPT는 수백만 건의 쿼리에 응답하기 위해 매일 수백 메가와트시(MWh)를 소비하는 것으로 추정됩니다. 언어 모델이 거대해지는 만큼 에너지 소비와 지속 가능성에 대한 우려도 커질 수 있습니다. 이러한 이유로 인공지능 기업들은 탄소 발자국을 줄이기 위해 대체 에너지원을 모색하는 데 앞장서고 있습니다.

OCI Generative AI로 LLM 애플리케이션 구축하기

Oracle은 기업이 LLM이라는 이 혁신적인 기술의 세부 사항이나 전력 수요를 두고 고심하지 않아도 그 강력한 기능을 활용할 수 있도록 힘을 실어줍니다. Oracle Cloud Infrastructure(OCI) Generative AI는 인프라를 복잡하게 관리할 필요 없이 비용 효율적인 방식으로 고효율의 맞춤형 최신 LLM을 간단히 배포할 수 있는 완전 관리형 서비스입니다. 기업은 여러 파운데이션 모델 중에서 원하는 모델을 선택한 다음, 자체 데이터를 사용하여 전용 GPU 클러스터에서 모델을 미세 조정하여 비즈니스 요구에 가장 적합한 맞춤형 모델을 구축할 수 있습니다.

기반 기술을 더 심도 있게 활용하고자 하는 기업은 Machine Learning in Oracle AI Database로 전환하고 있습니다. 이 플랫폼은 머신러닝 수명 주기의 주요 요소를 단순화하고 자동화하여, 데이터 과학자가 Oracle 데이터베이스에서 민감한 데이터를 마이그레이션하지 않고도 모델을 신속하게 구축할 수 있도록 지원합니다. 주요 기능으로는 인기 머신러닝 프레임워크, API, 자동화된 머신러닝(AutoML), 노코드 인터페이스 등이 있으며 애플리케이션에서 사용할 모델을 생성할 때 활용할 수 있는 고성능의 데이터베이스 내 알고리즘도 30가지 이상 제공됩니다.

또한 많은 유수 기업이 Oracle AI 인프라를 활용하여 자체 LLM을 구축하고 있습니다. AI 인프라는 OCI Generative AI와 같이 더 높은 수준의 AI 서비스의 기반이 됩니다. 또한 가속화된 컴퓨팅, 네트워킹, 스토리지 덕분에 요구사항이 매우 까다로운 LLM에도 사용할 수 있습니다.

LLM은 기업의 운영 방식과 고객 참여 방식을 혁신할 상당한 잠재력을 지니고 있으므로, 이 기술에 새로 혁신하고 투자한다면 글로벌 시장을 움직이고 사뭇 다른 기업 전략을 사용하게 될 수 있습니다. 그러나 비즈니스 및 IT 리더들은 과장된 인기 너머의 실체를 냉정히 파악할 줄도 알아야 합니다. 즉, 이 기술을 통해 얻을 수 있는 다양한 실질적인 이점도 파악하도록 노력하되, LLM의 기본적인 작동 방식을 이해하는 것은 물론 LLM의 한계와 채택 시의 도전 과제도 알고 있어야 합니다.

LLM은 우리의 작업 방식을 뒤바꾸는 다양한 혁신 기술의 기반입니다.

LLM FAQ

특정 애플리케이션에 맞게 대규모 언어 모델을 미세 조정하려면 어떻게 해야 하나요?

LLM은 초기 사전 학습 단계에서 자체 학습을 통해 파운데이션 모델로 개발된 다음, 분야별 레이블이 지정된 상대적으로 적은 양의 데이터를 사용하여 지도 학습을 통해 특정 응용 분야에 맞게 미세 조정됩니다.

대규모 언어 모델을 사용하면 어떤 산업이 가장 큰 이점을 얻을 수 있을까요?

거의 모든 산업이 LLM의 이점을 발견하고 있습니다. 보건의료, 금융 서비스, 소매유통 분야와 같은 다양한 산업에서 고객 지원 개선 및 비즈니스 프로세스 자동화와 관련된 다양한 사용 사례가 나오고 있습니다.

대규모 언어 모델을 기업 시스템과 통합할 수 있나요?

파운데이션 모델을 엔터프라이즈 데이터로 미세 조정한 다음, 검색 증강 생성을 통해 자체 데이터로 모델을 증강함으로써 대규모 언어 모델을 엔터프라이즈 시스템과 통합하는 경우가 많습니다.