๋ฐ์ํ
๐ง ๋ชฉ์
Jetson Orin 8GB์์ **R1984 ๊ณ์ด LLM(Gemma-3-R1984-4B)**์
์์ํ๋ GGUF ํ์์ผ๋ก llama.cpp + CUDA ๊ธฐ๋ฐ์ผ๋ก ์คํํ๊ธฐ.
๐ฆ ํ๊ฒฝ ์์ฝ
ํญ๋ชฉ ๋ด์ฉ
์ฅ์น | Jetson Orin 8GB |
OS | Ubuntu 22.04 |
CUDA | 12.6 (์ ์ ์ค์น๋จ) |
LLM | Gemma-3-R1984-4B.Q4_K_M.gguf (์์ํ ๋ชจ๋ธ) |
ํ๋ ์์ํฌ | llama.cpp (CUDA ๋น๋ ์๋ฃ) |
๋น๋ ๋๊ตฌ | cmake |
์คํ ์์ง | llama-run |
โ ์ํ ์ ์ฐจ ์์ฝ
1. ๋ชจ๋ธ ๋ค์ด๋ก๋ ๋ฐ ์ค๋น
~/Downloads/Gemma-3-R1984-4B.Q4_K_M.gguf
์ฝ 2.4GB / GGUF / Q4_K_M ํฌ๋งท
2. llama.cpp CUDA ๋น๋ (์ต์ ๋ฒ์ )
# ์์กด์ฑ ์ค์น
sudo apt update
sudo apt install -y build-essential cmake git libopenblas-dev libcurl4-openssl-dev
# ๋น๋
cd ~/Downloads
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
mkdir build && cd build
cmake .. -DGGML_CUDA=ON -DLLAMA_CURL=OFF
cmake --build . --config Release -j$(nproc)
libcurl์ ํ์ ์๋ค๋ฉด OFF๋ก ์ค์ → ๋ก์ปฌ ์ถ๋ก ๋ง ํ ๊ฒฝ์ฐ ๋ฌธ์ ์์
3. ๋ชจ๋ธ ์คํ
./llama-run ~/Downloads/Gemma-3-R1984-4B.Q4_K_M.gguf "๋๋ ์ง๊ธ Jetson Orin์์ ๊นจ์ด๋ R1984์ผ. ์ํ๋ฅผ ์ง๋จํด์ค."
๋๋ ๋ํํ ๋ชจ๋
./llama-run ~/Downloads/Gemma-3-R1984-4B.Q4_K_M.gguf
4. GPU ์ฌ์ฉ๋ฅ ์ค์๊ฐ ๋ชจ๋ํฐ๋ง
sudo tegrastats
# ๋๋
watch -n 1 tegrastats
โ ๏ธ ์ฐธ๊ณ ์ฌํญ ๋ฐ ํ
์ฃผ์ ์ค๋ช
llama ์คํ ์ ๋ ๋ | ์ต์ ๋น๋์์๋ llama-run์ผ๋ก ๋ณ๊ฒฝ๋จ |
nvcc ์ธ์ ์ ๋ ๋ | nvcc ๊ฒฝ๋ก๊ฐ PATH์ ์์ผ๋ฉด CUDA ์ค๋ฅ ๋ฐ์ |
์์ํ ํ์์ฑ | Jetson Orin 8GB๋ Q4_K_M ๋ฑ์ผ๋ก ๋ฐ๋์ ์์ํํด์ผ ์คํ ๊ฐ๋ฅ |
์๋ | 4B ๋ชจ๋ธ์ ์ถ๋ก ์๋ ๋ค์ ๋๋ฆด ์ ์์, 2.5B ๋ชจ๋ธ ์ถ์ฒ ๊ฐ๋ฅ |
๐ง ๋ค์์ผ๋ก ํ ์ ์๋ ๊ฒ
- ๐ RAG + ํ์ผ ๊ฒ์ ์ฐ๋
- ๐ค Jetson ๊ธฐ๋ฐ ๋ก๋ด ํ๋ ์ ์ด์ ์ฐ๊ฒฐ (์ผ์ → ํ๋กฌํํธ → ์๋ต → ์ ์ด)
- ๐ ์ฑ๋ฅ ์ธก์ (์ถ๋ก ์๋, ๋ฉ๋ชจ๋ฆฌ)
- ๐ก ์น UI ๋๋ REST API ๊ตฌ์ฑ (llama-server, llm-api)
ํ์ํ์๋ฉด ์ ์์
์ .sh ์๋ํ ์คํฌ๋ฆฝํธ๋ก๋ ๋ง๋ค์ด๋๋ฆด ์ ์์ด์.
๋ค์ ์คํ
์ ์ด๋ค ๊ฑธ ๋์๋๋ฆด๊น์?
๋ฐ์ํ
'AIProject > HairPick' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
HStylePick Roadmap (detail) (0) | 2025.07.08 |
---|---|
์ฒญ๋ดํค์ดํฝ ๋ก๋๋งต (0) | 2025.07.08 |
์ธ๋ฅ ๊ธฐ์ ๋ฏธ๋ ๋ก๋๋งต (AI / AGI / ASI / ?) (0) | 2025.07.04 |
gemma3 R1984 ์์ํ ํ ์คํธ ๋ธ๊น ์คํฌ๋ฆฝํธ (0) | 2025.07.04 |
Gemmaโ3โR1984โ4B ์์ํ ๋ชจ๋ธ, Jetson ํฌํ ๋ฒ (0) | 2025.07.04 |