Google Colab에서 DeepSeek AI 모델을 손쉽게 사용하는 방법

Updated on Mar 26,2025

인공지능(AI) 모델, 특히 대규모 모델을 사용하는 것은 언어 이해, 이미지 인식, 코드 생성과 같은 다양한 작업을 수행하는 데 점점 더 중요해지고 있습니다. 하지만 이러한 모델을 로드하고 사용하는 것은 복잡하고 리소스 집약적인 작업일 수 있습니다. 이 글에서는 Google Colab 환경에서 DeepSeek AI 대규모 모델을 로드하고 사용하는 간단하고 효과적인 방법을 살펴봅니다. Hugging Face Transformers 라이브러리에서 제공하는 파이프라인과 AutoClass 도구를 사용하는 방법을 중점적으로 설명합니다. 이 방법을 사용하면 고급 프로그래밍 기술 없이도 AI 모델을 쉽게 활용할 수 있습니다.

주요 내용

Hugging Face Transformers 라이브러리를 사용하여 Google Colab에서 DeepSeek AI와 같은 대규모 모델을 쉽게 로드하고 활용할 수 있습니다.

파이프라인은 사전 훈련된 모델을 사용하여 추론을 수행하는 가장 간단한 방법입니다.

AutoClass는 특정 작업에 적합한 모델을 자동으로 감지하고 구성하여 모델 로드 프로세스를 간소화합니다.

Transformer 라이브러리를 설치하고, 작업에 적합한 파이프라인을 선택하는 방법

DeepSeek AI와 같은 특정 대규모 모델을 로드하기 위한 구체적인 코드 예제

AutoClass를 사용하여 모델을 로드하고 활용하는 자세한 절차

Google Colab에서 DeepSeek AI 모델 활용하기

파이프라인을 사용한 대규모 모델 추론의 간소화

대규모 언어 모델을 활용하는 가장 간단한 방법 중 하나는 파이프라인을 사용하는 것입니다. 파이프라인은 Hugging Face Transformers 라이브러리에서 제공하는 도구로, 사전 훈련된 모델을 쉽게 로드하고 추론을 수행할 수 있도록 해줍니다. 이 글에서는 DeepSeek AI 대규모 모델을 사용하여 텍스트 생성을 수행하는 방법을 보여드리겠습니다. 파이프라인은 텍스트 생성, 감정 분석, 질문 응답 등 다양한 작업에 적용할 수 있습니다. Google Colab에서 deepseek AI 모델을 사용하는 단계를 살펴보겠습니다.

필수 라이브러리 설치

시작하기 전에 Hugging Face Transformers 라이브러리가 설치되어 있는지 확인해야 합니다. Colab 환경에는 필요한 torch가 이미 설치되어 있습니다. Transformers 라이브러리가 설치되어 있지 않으면 다음 명령을 사용하여 설치할 수 있습니다.

!pip install transformers

이 명령은 PyPI(Python Package Index)에서 Transformers 라이브러리를 다운로드하여 설치합니다. 설치가 완료되면 Transformers 라이브러리를 사용할 수 있습니다.

파이프라인 생성 및 구성

Transformers 라이브러리가 설치되면 텍스트 생성을 위해 파이프라인을 생성할 수 있습니다. 다음 코드를 사용하세요.

from transformers import pipeline

generator = pipeline('text-generation', model='deepseek-ai/DeepSeek-LLM-1.5B')

이 코드에서는 deepseek-ai/DeepSeek-LLM-1.5B 모델을 사용하여 텍스트 생성을 위해 파이프라인을 생성합니다. DeepSeek AI 모델의 특정 버전을 사용하거나 Hugging Face 모델 허브에서 사용할 수 있는 다른 모델을 지정할 수 있습니다.

파이프라인을 정의할 때 작업 유형(예: text-generation)과 사용할 특정 모델을 지정합니다.

텍스트 생성 수행

파이프라인이 생성되면 텍스트를 생성하는 데 사용할 수 있습니다. 다음 코드를 사용하세요.

prompt = "안녕하세요, 제 이름은 입니다."
result = generator(prompt, max_length=50)
print(result)

이 코드에서는 파이프라인에 프롬프트("안녕하세요, 제 이름은 입니다.")를 입력하고 최대 길이 50 토큰으로 텍스트를 생성합니다. 그런 다음 생성된 텍스트가 콘솔에 출력됩니다.

파이프라인은 사전 훈련된 모델을 사용하는 간단하고 효과적인 방법입니다. 텍스트 생성, 감정 분석, 질문 응답 등 다양한 작업에 사용할 수 있습니다.

AutoClass를 사용하여 모델 로드 간소화하기

AutoClass 소개

Transformer 라이브러리의 AutoClass는 모델 로드 프로세스를 간소화하는 강력한 도구입니다. 작업과 아키텍처를 기반으로 특정 작업에 적합한 모델을 자동으로 감지하고 구성할 수 있습니다. AutoClass를 사용하면 모델 구성에 대한 자세한 내용을 알 필요 없이 특정 작업에 적합한 모델을 쉽게 로드하고 사용할 수 있습니다.

AutoClass 사용

AutoClass를 사용하려면 다음 단계를 따르세요.

  1. AutoModel, AutoTokenizer와 같은 필요한 클래스를 가져옵니다.
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
  1. 로드할 사전 훈련된 모델의 이름을 지정합니다.
model_name = "deepseek-ai/DeepSeek-LLM-1.5B"
  1. 모델과 토크나이저를 로드합니다.
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map='auto'
)

이 코드에서는 AutoModelForCausalLM 클래스를 사용하여 지정된 이름으로 사전 훈련된 모델을 로드합니다. 또한 AutoTokenizer 클래스를 사용하여 모델에 대한 토크나이저를 로드합니다. 토크나이저는 텍스트를 모델이 이해할 수 있는 토큰으로 변환하는 데 사용됩니다.

AutoModel, AutoTokenizer를 가져오면 AutoClass 도구를 사용할 수 있습니다.

AutoClass를 사용하여 텍스트 생성 수행

모델과 토크나이저가 로드되면 텍스트를 생성하는 데 사용할 수 있습니다. 다음 코드를 사용하세요.


prompt = "일론 머스크가 트위터를 인수하기 전에 트위터는..."

inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_length=50)

p

Most people like