생성형 AI 개요 및 LLM과 SLM 차이

+ Genie2의 등장
GenAILLMSLM
avatar
2024.12.06
·
6 min read

오늘은 금방 구운 군고구마같이 어제 발표된 아주 따끈따끈한 AI 소식을 먼저 살펴봅시다.

Google DeepMind에서 Genie2를 새롭게 발표했습니다. 이 모델을 통해 단 1장의 이미지로 3D 환경을 생성할 수 있는 기술이 탄생했습니다. 이렇게 생성된 환경은 사람이 직접 게임처럼 플레이하거나, AI 에이전트를 훈련하고 평가하는 데 활용될 수 있다고 합니다 😄 AI 기술은 매일 계속해서 발전해나가고 있는데, 매우 놀랍습니다.

생성형 AI 개요

생성형 AI는 특정 작업을 수행하도록 명령을 내릴 수 있는 인공지능 기술을 의미합니다. 이러한 명령은 주로 텍스트 형태로 입력되며, 출력은 텍스트, 이미지, 오디오, 의사결정 등 다양한 형태로 제공될 수 있습니다.

예를 들어, 텍스트 기반 생성형 AI는 번역, 요약, 질문과 답변(Q&A), 맞춤법 교정, 코드 리뷰 등의 작업을 수행할 수 있습니다. 의사결정 기능을 갖춘 AI는 주식 예측과 같은 Prediction(예측) 작업이나, 비정상적인 데이터를 감지하는 Anomaly Detection(이상 탐지) 기능을 수행할 수 있습니다. 예를 들어, 금융 데이터에서 이상값을 감지하거나, 게임에서 플레이어가 공격해야 할지 판단하는 등의 역할을 할 수 있습니다. 또한, 음성을 처리하는 AI는 텍스트를 음성으로 변환(Text-to-Speech)하거나, 음성을 텍스트로 변환(Speech-to-Text)할 수 있으며, AI 상담원이나 강의 녹음을 텍스트로 변환하는 등의 활용이 가능합니다.

LLM과 SLM 비교

생성형 AI의 하위 개념 중 하나로 LLM(Large Language Model)이 있으며, ChatGPT도 이에 속합니다. 최근에는 SLM(Small Language Model)도 주목받고 있으며, LLM과 SLM은 여러 측면에서 차이가 있습니다.

  1. 파라미터 크기

    • SLM: 1,500만 개 이하의 적은 파라미터를 가짐

    • LLM: 수천억 개 이상의 방대한 파라미터를 보유

  2. 하드웨어 요구사항

    • SLM: 모바일 장치에서도 실행 가능

    • LLM: 방대한 데이터를 학습하며 GPU가 필수

  3. 배포

    • SLM: 자원이 제한된 환경에서도 배포 가능

    • LLM: 상당한 인프라가 필요하며, 주로 클라우드에서 운영

  4. 훈련 시간

    • SLM: 일반적으로 일주일 정도의 훈련 기간 필요

    • LLM: 수개월에 걸쳐 학습 진행

  5. 소유권 및 라이선스

    • SLM: 대부분 오픈소스로 제공되며 누구나 활용 가능

    • LLM: 특정 기업에서 개발하며 라이선스가 필요하고 코드가 공개되지 않는 경우가 많음

  6. 비용

    • SLM: 대부분 무료로 제공

    • LLM: 운영 및 사용에 비용이 발생

  7. 유연성

    • SLM: 특정 도메인에 특화된 모델을 구축하는 데 적합

    • LLM: 다양한 작업에 활용할 수 있는 범용 모델

기업의 최신 트렌드

최근 기업들은 LLM에서 SLM으로 이동하는 추세를 보이고 있습니다. 이는 기업들이 자체적인 특화 모델을 구축하고자 하는 요구가 증가했기 때문입니다. 특히, SLM을 활용하여 특정 도메인에 맞춰 추가 데이터를 학습시키는 방식이 일반적입니다. 반면, LLM을 도입하는 경우에는 RAG(Retrieval-Augmented Generation) 기술을 활용하여 성능을 개선하는 방향으로 연구가 진행되고 있습니다.

LLM과 SLM 선택 기준

생성형 AI를 선택할 때는 다음과 같은 기준을 고려해야 합니다.

  • 높은 품질의 결과가 필요한가?

    • 네: LLM 활용

    • 아니오: SLM 활용

  • 사람과 대화하는 것과 유사한 경험이 필요한가?

    • 네: LLM이 적합

    • 아니오: SLM이 적합

SLM의 경우 단순히 API를 활용하는 것이 아니라, 추가 데이터를 학습시켜 특정 도메인에 특화된 모델을 구축하는 것이 일반적입니다. 반면, LLM을 도입할 때는 RAG를 활용하여 보다 정밀한 응답을 제공하는 방식이 효과적입니다.







- 컬렉션 아티클