[DeepSeek 블로그자동화 프로젝트] 💻 딥시크 로컬 설치 및 프로젝트 세팅 #3

2025. 2. 4. 00:01_Project/DeepSeek_블로그자동화

728x90

 

2025.02.04

3. 💻  AI 모델 세팅 도전기

 

 

본격적인 프로젝트 세팅에 앞서서 깃허브의 6. How to Run Locally를 읽어보면 DeepSeek-V3은 Mac이랑 Window가 아닌 Linux에서만 작동해요. Oillama를 설치해서 AI모델을 효율적으로 관리해봐요. 

 

https://github.com/deepseek-ai/DeepSeek-V3/blob/main/README.md#6-how-to-run-locally

 

DeepSeek-V3/README.md at main · deepseek-ai/DeepSeek-V3

Contribute to deepseek-ai/DeepSeek-V3 development by creating an account on GitHub.

github.com

 

 


https://ollama.com/

 

 

다운로드 받아주고 설치까지 완료하면 terminal 혹은 cmd 창을 켜서 아래 코드를 입력해서 설치를 확인해요.

ollama -v

 

다시 ollama 페이지로 돌아가 model 에 deepseek라고 검색하면 해당 모델이 검색되며 여러 모델을 선택하여 설치가능해요.

 

 

✅ Distilled 모델이란?

DeepSeek 팀은 큰 AI 모델이 학습한 추론 패턴(reasoning patterns) 을 작은 모델에 적용하는 기술을 개발했어요. 이렇게 하면 작은 모델도 원래보다 더 뛰어난 성능을 발휘할 수 있어요.

보통 작은 모델은 RL(강화학습) 같은 방법을 사용해 독자적으로 학습하지만, 이 방식은 큰 모델이 이미 배운 논리적인 사고방식을 그대로 따라가지는 못해요. 그래서 DeepSeek 팀은 큰 모델이 학습한 방식을 작은 모델에 "증류(distillation)" 해서 적용하는 방법을 연구했어요.

 

 

✅ 어떻게 학습했을까?

DeepSeek 팀은 DeepSeek-R1이라는 모델을 사용해 다양한 추론 데이터(reasoning data) 를 생성했어요. 그런 다음, 이 데이터를 활용해 여러 연구용 대형 모델들을 미세 조정(fine-tuning)하면서 작은 모델을 학습시켰어요.

이렇게 학습된 모델들은 기존의 작은 모델보다 훨씬 더 좋은 성능 을 보였어요. 즉, 큰 모델의 논리적 사고방식을 작은 모델에 그대로 녹여내서 더 뛰어난 결과를 만든 거예요.

왜 중요할까?

작은 모델도 강력한 성능
→ 기존에는 큰 모델만 가능했던 수준의 논리적 사고를 작은 모델에서도 구현 가능해요.

 

학습 효율 향상
→ RL 방식보다 더 빠르고 효과적으로 작은 모델을 개선할 수 있어요.

 

다양한 활용 가능→ 리소스가 적은 환경에서도 강력한 AI 모델을 사용할 수 있어요.

 

이 기술을 활용하면 작은 모델로도 복잡한 문제를 해결할 수 있어서, 앞으로 AI 연구나 개발에서 더 널리 활용될 가능성이 커요! 🚀

 

 

 

 

b는 모델 크기로 5B ~ 671B 다양한 파라미터로 설치할 수 있어요, GPU를 고려해서 설치해요. 저는 M2 Macbook Pro RAM 32GB 라서 아래 모델중 가장 작은 모델을 설치해봤어요. ollama run deepseek-r1:8b 를 실행하려면 DeepSeek-R1 Distill Llama 8B(80억 파라미터) 모델을 처리할 수 있는 적절한 하드웨어가 필요해요. GPU (최소 VRAM 24GB 필요)

> 무리하게 설치시 시스템이 멈출 수 있어요

 

 

✅ 최소 요구 사양

DeepSeek-R1 8B 모델은 32B 모델보다 훨씬 가벼워서, 최신 고성능 GPU 1개만 있어도 실행이 가능해요. ollama run deepseek-r1:1.5b 는 15억 파라미터로 노트북에도 실행가능한 모델이에요.

ollama run deepseek-r1:1.5b

ollama run deepseek-r1:7b

ollama run deepseek-r1:8b

 


 

📌 1.5b 결론

맥북 (M1/M2/M3)에서도 실행 가능!
CPU만으로도 실행 가능하지만, GPU가 있으면 더 빠름
노트북에서도 충분히 돌릴 수 있는 가벼운 모델

🔥 최적의 환경 추천:
💻 MacBook Pro M1/M2/M3 or Windows 노트북 (i7 + 16GB RAM + SSD)
👉 이 정도면 원활하게 DeepSeek-R1 1.5B 모델을 실행할 수 있어요! 🚀

 

 

📌 7b 결론

RTX 4080 (16GB) 이상이면 실행 가능, RTX 4090 (24GB) 추천!
RAM은 최소 16GB, SSD는 NVMe 512GB 이상 필요
맥북에서는 실행 어려움 M2 Pro 32GB라면 실행은 가능할 수도 있지만, 매우 느리거나 충돌할 가능성이 높음

🔥 최적의 로컬 사양:
💻 RTX 4090 + 32GB RAM + i9 13900K + NVMe SSD 1TB 이상
👉 이 정도면 원활하게 DeepSeek-R1 7B 모델을 실행할 수 있어요! 🚀

 

 

📌 8b 결론

RTX 4090 (24GB VRAM) 이상이면 실행 가능!
RAM은 최소 32GB, SSD는 NVMe 1TB 이상 필요
맥북에서는 실행 불가능 (M 시리즈는 Ollama에서 지원 안 함)

🔥 최적의 로컬 사양:
💻 RTX 4090 + 64GB RAM + i9 13900K + NVMe SSD 1TB 이상
👉 이 정도면 원활하게 DeepSeek-R1 8B 모델을 실행할 수 있어요! 🚀

 

🚀 대체 방법 (클라우드 실행)

만약 로컬에서 실행이 어렵다면, 다음과 같은 클라우드 서비스를 사용할 수 있어요:

  1. Lambda Labs – RTX 4090 / A100 서버 제공
  2. Google Cloud (GCP) – A100/H100 인스턴스 사용 가능
  3. AWS EC2 – p4d (A100) or p5 (H100) 인스턴스 활용

 


✅  딥시크를 실행해보자

 

이제 명령어 칸에 입력을하면 자동으로 답문이 출력되지만 웹에 연결이 되진 않아요 ! 아쉽게도 아직 한국어를,,, 하지 못하는 것 같아서 차기 프로젝트에 문제가 우려되네요. 한국어가 능숙한 다른 AI 모델도 고려해봐야겠어요. 

 

Deep Seek Web

https://chat.deepseek.com/sign_in

 

서울 과기대 한국어생성 AI Bllossom/llama-3-Korean-Bllossom-70B

https://devmeta.tistory.com/80

 

Macbook 32GB에도 가능한 한국어 AI mistralai/Mistral-Small-24B-Instruct-2501

https://huggingface.co/mistralai/Mistral-Small-24B-Instruct-2501

 

한국어 제일 잘하는 AI 찾기 (feat. ollama / quantize)

최근 llama3 기반으로 한국어 모델을 활용하는 스터디 중이었는데 오늘 기가막힌 뉴스가 나왔다.  서울과기대 연구실에서 한국어를 잘 학습 시켜주셔서 모델을 올려주셨네. 너무 감사합니다~!!

devmeta.tistory.com

 

 

Reference

 

Hugging Face 에서 Model weight 다운로드하기

https://huggingface.co/deepseek-ai/DeepSeek-V3-Base

https://huggingface.co/models

https://github.com/sgl-project/sglang/tree/main/benchmark/deepseek_v3

https://brunch.co.kr/@skychang44/663