""" EXAONE-3.0-7.8B-Instruct 모델을 Ollama에 추가하는 간단한 스크립트 Ollama 0.13.0에서는 직접 Hugging Face 모델을 지원하지 않으므로 다른 방법을 안내합니다. """ import os import subprocess from pathlib import Path HF_TOKEN = "YOUR_HUGGINGFACE_TOKEN_HERE" def main(): print("\n" + "=" * 60) print("EXAONE-3.0-7.8B-Instruct Ollama 추가 가이드") print("=" * 60) print("\n현재 Ollama 버전(0.13.0)에서는 Hugging Face 모델을 직접 가져올 수 없습니다.") print("\n다음 방법 중 하나를 선택하세요:") print("\n[방법 1] Ollama 업데이트 (권장)") print("-" * 60) print("최신 버전의 Ollama는 Hugging Face 모델을 더 잘 지원합니다.") print("https://ollama.ai/download 에서 최신 버전을 다운로드하세요.") print("\n[방법 2] GGUF 모델 사용") print("-" * 60) print("EXAONE 모델의 GGUF 버전이 있다면 직접 다운로드하여 사용할 수 있습니다.") print("하지만 현재 Hugging Face에는 GGUF 버전이 없는 것으로 보입니다.") print("\n[방법 3] Python에서 직접 사용") print("-" * 60) print("Ollama를 통하지 않고 Python에서 직접 Hugging Face 모델을 사용할 수 있습니다.") print("하지만 이 경우 Ollama API와의 통합이 필요합니다.") print("\n[방법 4] Modelfile 수정") print("-" * 60) print("로컬에 모델을 다운로드한 후 Modelfile에서 로컬 경로를 참조할 수 있습니다.") print("\n" + "=" * 60) print("추천: Ollama를 최신 버전으로 업데이트하세요") print("=" * 60) print("\n현재 상태:") print(f"- Hugging Face 토큰: 설정됨") print(f"- Ollama 버전: 0.13.0 (최신 버전 권장)") print("\n다음 명령어로 Ollama 버전을 확인하세요:") print(" ollama --version") print("\nOllama를 업데이트한 후 다시 시도하세요.") if __name__ == "__main__": main()