File size: 2,065 Bytes
d54e6a9 b834258 c2280e3 d234e06 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 |
"""
EXAONE-3.0-7.8B-Instruct ๋ชจ๋ธ์ Ollama์ ์ถ๊ฐํ๋ ๊ฐ๋จํ ์คํฌ๋ฆฝํธ
Ollama 0.13.0์์๋ ์ง์ Hugging Face ๋ชจ๋ธ์ ์ง์ํ์ง ์์ผ๋ฏ๋ก
๋ค๋ฅธ ๋ฐฉ๋ฒ์ ์๋ดํฉ๋๋ค.
"""
import os
import subprocess
from pathlib import Path
HF_TOKEN = "YOUR_HUGGINGFACE_TOKEN_HERE"
def main():
print("\n" + "=" * 60)
print("EXAONE-3.0-7.8B-Instruct Ollama ์ถ๊ฐ ๊ฐ์ด๋")
print("=" * 60)
print("\nํ์ฌ Ollama ๋ฒ์ (0.13.0)์์๋ Hugging Face ๋ชจ๋ธ์ ์ง์ ๊ฐ์ ธ์ฌ ์ ์์ต๋๋ค.")
print("\n๋ค์ ๋ฐฉ๋ฒ ์ค ํ๋๋ฅผ ์ ํํ์ธ์:")
print("\n[๋ฐฉ๋ฒ 1] Ollama ์
๋ฐ์ดํธ (๊ถ์ฅ)")
print("-" * 60)
print("์ต์ ๋ฒ์ ์ Ollama๋ Hugging Face ๋ชจ๋ธ์ ๋ ์ ์ง์ํฉ๋๋ค.")
print("https://ollama.ai/download ์์ ์ต์ ๋ฒ์ ์ ๋ค์ด๋ก๋ํ์ธ์.")
print("\n[๋ฐฉ๋ฒ 2] GGUF ๋ชจ๋ธ ์ฌ์ฉ")
print("-" * 60)
print("EXAONE ๋ชจ๋ธ์ GGUF ๋ฒ์ ์ด ์๋ค๋ฉด ์ง์ ๋ค์ด๋ก๋ํ์ฌ ์ฌ์ฉํ ์ ์์ต๋๋ค.")
print("ํ์ง๋ง ํ์ฌ Hugging Face์๋ GGUF ๋ฒ์ ์ด ์๋ ๊ฒ์ผ๋ก ๋ณด์
๋๋ค.")
print("\n[๋ฐฉ๋ฒ 3] Python์์ ์ง์ ์ฌ์ฉ")
print("-" * 60)
print("Ollama๋ฅผ ํตํ์ง ์๊ณ Python์์ ์ง์ Hugging Face ๋ชจ๋ธ์ ์ฌ์ฉํ ์ ์์ต๋๋ค.")
print("ํ์ง๋ง ์ด ๊ฒฝ์ฐ Ollama API์์ ํตํฉ์ด ํ์ํฉ๋๋ค.")
print("\n[๋ฐฉ๋ฒ 4] Modelfile ์์ ")
print("-" * 60)
print("๋ก์ปฌ์ ๋ชจ๋ธ์ ๋ค์ด๋ก๋ํ ํ Modelfile์์ ๋ก์ปฌ ๊ฒฝ๋ก๋ฅผ ์ฐธ์กฐํ ์ ์์ต๋๋ค.")
print("\n" + "=" * 60)
print("์ถ์ฒ: Ollama๋ฅผ ์ต์ ๋ฒ์ ์ผ๋ก ์
๋ฐ์ดํธํ์ธ์")
print("=" * 60)
print("\nํ์ฌ ์ํ:")
print(f"- Hugging Face ํ ํฐ: ์ค์ ๋จ")
print(f"- Ollama ๋ฒ์ : 0.13.0 (์ต์ ๋ฒ์ ๊ถ์ฅ)")
print("\n๋ค์ ๋ช
๋ น์ด๋ก Ollama ๋ฒ์ ์ ํ์ธํ์ธ์:")
print(" ollama --version")
print("\nOllama๋ฅผ ์
๋ฐ์ดํธํ ํ ๋ค์ ์๋ํ์ธ์.")
if __name__ == "__main__":
main()
|