beomi/KoAlpaca-v1.1a
Viewer β’ Updated β’ 21.2k β’ 1.36k β’ 61
How to use heegyu/polyglot-ko-3.8b-chat with Transformers:
# Use a pipeline as a high-level helper
from transformers import pipeline
pipe = pipeline("text-generation", model="heegyu/polyglot-ko-3.8b-chat") # Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("heegyu/polyglot-ko-3.8b-chat")
model = AutoModelForCausalLM.from_pretrained("heegyu/polyglot-ko-3.8b-chat")How to use heegyu/polyglot-ko-3.8b-chat with vLLM:
# Install vLLM from pip:
pip install vllm
# Start the vLLM server:
vllm serve "heegyu/polyglot-ko-3.8b-chat"
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:8000/v1/completions" \
-H "Content-Type: application/json" \
--data '{
"model": "heegyu/polyglot-ko-3.8b-chat",
"prompt": "Once upon a time,",
"max_tokens": 512,
"temperature": 0.5
}'docker model run hf.co/heegyu/polyglot-ko-3.8b-chat
How to use heegyu/polyglot-ko-3.8b-chat with SGLang:
# Install SGLang from pip:
pip install sglang
# Start the SGLang server:
python3 -m sglang.launch_server \
--model-path "heegyu/polyglot-ko-3.8b-chat" \
--host 0.0.0.0 \
--port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/completions" \
-H "Content-Type: application/json" \
--data '{
"model": "heegyu/polyglot-ko-3.8b-chat",
"prompt": "Once upon a time,",
"max_tokens": 512,
"temperature": 0.5
}'docker run --gpus all \
--shm-size 32g \
-p 30000:30000 \
-v ~/.cache/huggingface:/root/.cache/huggingface \
--env "HF_TOKEN=<secret>" \
--ipc=host \
lmsysorg/sglang:latest \
python3 -m sglang.launch_server \
--model-path "heegyu/polyglot-ko-3.8b-chat" \
--host 0.0.0.0 \
--port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/completions" \
-H "Content-Type: application/json" \
--data '{
"model": "heegyu/polyglot-ko-3.8b-chat",
"prompt": "Once upon a time,",
"max_tokens": 512,
"temperature": 0.5
}'How to use heegyu/polyglot-ko-3.8b-chat with Docker Model Runner:
docker model run hf.co/heegyu/polyglot-ko-3.8b-chat
| Dataset | # instance | νμ |
|---|---|---|
| KoAlpaca v1.1 | 50K | μ±κΈν΄ |
| dbdu/ShareGPT-74k-ko μ part2_ko_uncleaned | 36K | λ©ν°ν΄ |
| heegyu/korquad-chat-v1 | 9.6K | λ©ν°ν΄, μ§μκΈ°λ° |
| lcw99/evolve-instruct | 37K | μ±κΈν΄ |
| HAERAE-HUB/KoInstruct-QA | 50.3k | μ±κΈν΄ |
| changpt/ko-lima-vicuna | 1K | μ±κΈν΄, λ©ν°ν΄(κ·Ήν μΌλΆ) |
| nlpai-lab/kullm-v2 | 15K | μ±κΈν΄ |
λΉμ μ AI μ±λ΄μ
λλ€. μ¬μ©μμκ² λμμ΄ λκ³ μ μ΅ν λ΄μ©μ μ 곡ν΄μΌν©λλ€. λ΅λ³μ κΈΈκ³ μμΈνλ©° μΉμ ν μ€λͺ
μ λ§λΆμ¬μ μμ±νμΈμ.
### μ¬μ©μ:
μμΈμμ κ°λ¦ κ°λ €λ©΄ μ΄λ»κ² κ°μΌν΄?
### μ±λ΄:
μμ±λ λ΅λ³:
μμΈμμ κ°λ¦ κ°λ λ°©λ²μ λ€μν©λλ€. λΉνκΈ°λ₯Ό νκ³ κ°κ±°λ KTXλ₯Ό μ΄μ©νκ±°λ μκ°μ©μΌλ‘ μ΄λνλ λ°©λ²μ΄ μμ΅λλ€.
1. λΉνκΈ°: λΉνκΈ°λ μμΈμμ μμ λλ μμ£Ό 곡νκΉμ§ μ΄νν©λλ€. μμ μκ°μ μ½ 2μκ°μ΄λ©°, μ΄μμ μ½ 20,000μμ
λλ€.
2. KTX: KTXλ μμΈμμ κ°λ¦κΉμ§ μ΄ννλ©°, μκΈμ μΌλ° λ° νΉμ€ λͺ¨λ 6,550μμΌλ‘ ν΅μΌλμ΄ μμ΅λλ€. μ΄μ°¨ μκ°μ μμΈμμ κ°λ¦κΉμ§ 1μκ° 30λΆ μ λ μμλ©λλ€.
3. μκ°μ©: μκ°μ©μ μ΄μ©ν΄ κ°λ¦μΌλ‘ κ°λ λ°©λ²λ λ§μ΄ μμ΅λλ€. μμΈμμ κ²½ν¬μ μ΄λ₯΄λ κΈΈμ λ€μνλ©°, λλ‘ μν©μ λ°λΌ μ£Όν μκ° λ° μ΄λ 거리λ λ¬λΌμ§ μ μμ΅λλ€. μ°Έκ³ ν μ μλ μ 보λ κ°λ¦ κ΄κ΄μλ΄μμμ λ°μΌμ€ μ μμ΅λλ€.
μ λ°©λ²μ μ΄μ©νμ¬ μμΈμμ κ°λ¦κΉμ§μ μ΄λ μκ°κ³Ό λΉμ©μ κ³ λ €νμ΅λλ€. κ·Έλ¬λ κ΅ν΅ μν©μ΄λ λλ‘ μν© λ±μ λ°λΌ μΆκ° μ λ³΄κ° νμν μ μμ΅λλ€.
λν μμ (with prompt)
λΉμ μ AI μ±λ΄μ
λλ€. μ¬μ©μμκ² λμμ΄ λκ³ μ μ΅ν λ΄μ©μ μ 곡ν΄μΌν©λλ€. λ΅λ³μ κΈΈκ³ μμΈνλ©° μΉμ ν μ€λͺ
μ λ§λΆμ¬μ μμ±νμΈμ.
### μ¬μ©μ:
μ€κ΅μ μ¬νμ§ μΆμ²ν΄μ€
### μ±λ΄:
μλλ μ€κ΅μ λ€μν μ¬νμ§ μ€ λͺ κ°μ§λ₯Ό μΆμ²ν΄λλ¦¬κ² μ΅λλ€.
- μνμ΄: μ€κ΅μ μνμ΄λ νλμ μΈ κ±΄λ¬Όκ³Ό λμ λΉλ©μ΄ λ§μ λμμ
λλ€. κ°μ λ°λΌ μ΄λνλ μ λ°μ μνμ΄μ νκ²½κ³Ό λ¬Ένλ₯Ό κ°μν μ μλ μ₯μμ
λλ€. (μ¬μ§: μ€κ΅ μ¬μ§ μ 곡 μ¬μ΄νΈ)
- μΉλ°μ€: μΉλ°μ€λ μνμ΄μ ν λμλ‘, λ
νΉν 건μΆλ¬Όκ³Ό μμ¬μ μΈ μ λ¬Όλ€μ΄ λ§μ΄ μλ κ³³μ
λλ€. μλ¦λ€μ΄ ν΄λ³λ μμΌλ μΌμ μ νμΈν΄λ³΄μλ©΄ μ’μ κ² κ°μ΅λλ€. (μ¬μ§: μ€κ΅ μ¬μ§ μ 곡 μ¬μ΄νΈ)
- νμ μ°: νμ μ°λ μ€κ΅μ 4λ μ μ μ€ νλλ‘ μ λͺ
ν κ³³μ
λλ€. μλ¦λ€μ΄ μ μ, μ€λλ 건물, κ·Έλ¦¬κ³ νλΆν μμ¬ λ¬Έν 체νμ μ¦κΈΈ μ μλ λμμ
λλ€. (μ¬μ§: μ€κ΅ μ¬μ§ μ 곡 μ¬μ΄νΈ)
- λμ§: λμ§μ μ€κ΅μ μλμΈ λμ§μ μμΉν λμλ‘, μμ¬μ λ¬Ένλ₯Ό κΈ°λ°μΌλ‘ λ€μν λͺ
μλ€μ μ°Ύμ μ μμ΅λλ€. (μ¬μ§: μ€κ΅ μ¬μ§ μ 곡 μ¬μ΄νΈ)
- λ² μ΄μ§: μ€κ΅μ μλμΈ λ² μ΄μ§μ μ€κ΅μ λ¬Ένμ μμ¬λ₯Ό 체νν μ μλ λμμ
λλ€. λ€μν κ΄κ΄ λͺ
μμ μμ¬ μ λ¬Όλ€μ΄ μ¬λ¬λΆμ κΈ°λ€λ¦¬κ³ μμ κ²μ
λλ€. (μ¬μ§: μ€κ΅ μ¬μ§ μ 곡 μ¬μ΄νΈ)
- λ² μ΄μ§μ μ°½μΆ: μ°½μΆμ μ€κ΅μ λλΆ μ§λ°©μ μμΉν λμλ‘, μ ν΅ λ¬Ένμ μμ¬λ₯Ό 체νν μ μλ μ’μ μ₯μμ
λλ€.
μ΄ μΈμλ μ€κ΅ λ¬Ένμ μμ¬μ λν μμΈν μ 보λ μμ λͺ©λ‘μ μ°Έκ³ νμ¬ λ€μν 맀체μμ μ°Ύμλ³΄μ€ μ μμ΅λλ€.
λ©ν°ν΄ λν μμ (with prompt)
λΉμ μ AI μ±λ΄μ
λλ€. μ¬μ©μμκ² λμμ΄ λκ³ μ μ΅ν λ΄μ©μ μ 곡ν΄μΌν©λλ€. λ΅λ³μ κΈΈκ³ μμΈνλ©° μΉμ ν μ€λͺ
μ λ§λΆμ¬μ μμ±νμΈμ.
### μ¬μ©μ:
μμ¦ μ¦κ²¨νλ μ»΄ν¨ν° κ²μμ΄ μμ΄?
### μ±λ΄:
μ£μ‘νμ§λ§ μ§λ¬Έμ λν μ νν λ΅λ³μ μν΄μλ κ²μμ μ νκ³Ό μ₯λ₯΄λ₯Ό λ μμΈν μλ €μ£Όμλ κ²μ΄ μ’μ΅λλ€.
### μ¬μ©μ:
μ RPG μ₯λ₯΄ μͺ½μΌλ‘ μΆμ²λ°κ³ μΆμλ°
### μ±λ΄:
RPG μ₯λ₯΄ μ€μμλ κ°λ¨ν μΊμ£ΌμΌ κ²μμ μ νΈνμ λ€λ©΄, μ κ° μΆμ²ν΄λ릴 μ μμ΅λλ€. λ°λ‘ 'Rogue Dragon(κ°μΉ)'μ΄λΌλ κ²μμ
λλ€. μ΄ κ²μμ ννμ§, μ‘μ
λ± λ€μν μ₯λ₯΄λ₯Ό μ λͺ©νμ¬ μ¦κΈΈ μ μμΌλ©°, νλ €ν κ·Έλν½, ννν μ€ν 리μ μ€λ
μ± κ°ν ν격μμ€ν
λ νΉμ§μ
λλ€.
### μ¬μ©μ:
μ΄λμ ν μ μμ΄?
### μ±λ΄:
'Rogue Dragon'μ μ€νμμ 무λ£λ‘ νλ μ΄νμ€ μ μμ΅λλ€. λ€λ₯Έ λ°©λ²μΌλ‘λ, 곡μ μΉμ¬μ΄νΈμμ λ€μ΄λ‘λνμ
μ νλ μ΄νμ€ μ μμ΅λλ€.