Ollama 간편 가이드
미래 사용을 위해 일부를 컴파일해 두었습니다...
Page content
이 문서는 가장 유용한 Ollama 명령어 목록과 예시입니다 (Ollama 명령어 참고서),
저는 이전에 이를 정리했습니다.
이 문서가 여러분에게 도움이 되기를 바랍니다.
이 Ollama 참고서는 CLI 명령어, 모델 관리 및 커스터마이징에 초점을 맞추고 있습니다.
설치
- 옵션 1: 웹사이트에서 다운로드
- ollama.com에 방문하여 사용 중인 운영체제(Mac, Linux 또는 Windows)에 맞는 설치 프로그램을 다운로드합니다.
- 옵션 2: 명령줄을 통해 설치
- Mac 및 Linux 사용자는 다음 명령을 사용합니다:
curl https://ollama.ai/install.sh | sh
- 화면에 표시된 지시사항을 따르고, 필요 시 비밀번호를 입력합니다[3].
- Mac 및 Linux 사용자는 다음 명령을 사용합니다:
시스템 요구 사항
- 운영체제: Mac 또는 Linux (Windows 버전은 개발 중)
- 메모리 (RAM): 최소 8GB, 16GB 이상 권장
- 저장 공간: 최소 약 10GB의 여유 공간
- 프로세서: 최근 5년 이내의 비교적 현대적인 CPU[3].
기본 Ollama CLI 명령어
명령어 | 설명 |
---|---|
ollama serve |
로컬 시스템에서 Ollama를 시작합니다. |
ollama create <new_model> |
기존 모델에서 새로운 모델을 생성하여 커스터마이징 또는 훈련에 사용합니다. |
ollama show <model> |
특정 모델의 구성 및 출시일과 같은 정보를 표시합니다. |
ollama run <model> |
지정된 모델을 실행하여 상호작용이 가능하도록 합니다. |
ollama pull <model> |
지정된 모델을 시스템으로 다운로드합니다. |
ollama list |
다운로드된 모든 모델을 나열합니다. |
ollama ps |
현재 실행 중인 모델을 표시합니다. |
ollama stop <model> |
지정된 실행 중인 모델을 중지합니다. |
ollama rm <model> |
지정된 모델을 시스템에서 제거합니다. |
ollama help |
어떤 명령에 대한 도움을 제공합니다. |
모델 관리
-
모델 다운로드:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
이 명령어는 지정된 모델(예: Gemma 2B)을 시스템으로 다운로드합니다.
-
모델 실행:
ollama run qwen2.5:32b-instruct-q3_K_S
이 명령어는 지정된 모델을 실행하고 상호작용을 위한 인터랙티브 REPL을 열어줍니다.
-
모델 목록 보기:
ollama list
이 명령어는 시스템에 다운로드된 모든 모델을 나열합니다.
-
모델 중지:
ollama stop llama3.1:8b-instruct-q8_0
이 명령어는 지정된 실행 중인 모델을 중지합니다.
모델 커스터마이징
-
시스템 프롬프트 설정: Ollama REPL 내에서 모델의 행동을 커스터마이징하기 위해 시스템 프롬프트를 설정할 수 있습니다:
>>> /set system 모든 질문에 대해 가능한 한 기술 용어를 피하고 일반 영어로 답변하세요 >>> /save ipe >>> /bye
그런 다음 커스터마이징된 모델을 실행합니다:
ollama run ipe
이 명령어는 시스템 프롬프트를 설정하고 모델을 향후 사용을 위해 저장합니다.
-
커스터마이징된 모델 파일 생성: 다음 구조를 가진 텍스트 파일(예:
custom_model.txt
)을 생성합니다:FROM llama3.1 SYSTEM [여기서 커스터마이징된 지시사항을 입력하세요]
그런 다음 다음 명령을 실행합니다:
ollama create mymodel -f custom_model.txt ollama run mymodel
이 명령어는 파일에 포함된 지시사항을 바탕으로 커스터마이징된 모델을 생성합니다[3].
파일과 함께 Ollama 사용
-
파일의 텍스트 요약:
ollama run llama3.2 "이 파일의 내용을 50단어로 요약해주세요." < input.txt
이 명령어는 지정된 모델을 사용하여
input.txt
의 내용을 요약합니다. -
모델 응답을 파일에 기록:
ollama run llama3.2 "재생 가능한 에너지에 대해 말해주세요." > output.txt
이 명령어는 모델의 응답을
output.txt
에 저장합니다.
일반적인 사용 사례
-
텍스트 생성:
- 대규모 텍스트 파일 요약:
ollama run llama3.2 "다음 텍스트를 요약해주세요:" < long-document.txt
- 콘텐츠 생성:
ollama run llama3.2 "의료 분야에서 AI 사용의 이점을 다룬 짧은 기사를 작성해주세요." > article.txt
- 특정 질문에 답변:
ollama run llama3.2 "AI의 최신 트렌드는 무엇이며, 이는 의료 분야에 어떤 영향을 미칠까요?"
.
- 대규모 텍스트 파일 요약:
-
데이터 처리 및 분석:
- 텍스트를 긍정, 부정, 중립 감정으로 분류:
ollama run llama3.2 "이 고객 리뷰의 감정을 분석해주세요: '제품은 훌륭하지만 배송이 느렸습니다.'"
- 사전 정의된 범주로 텍스트 분류: 유사한 명령어를 사용하여 사전 정의된 기준에 따라 텍스트를 분류하거나 범주화할 수 있습니다.
- 텍스트를 긍정, 부정, 중립 감정으로 분류:
Python과 함께 Ollama 사용
- Ollama Python 라이브러리 설치:
pip install ollama
- Python을 사용한 텍스트 생성:
이 코드 스니펫은 지정된 모델과 프롬프트를 사용하여 텍스트를 생성합니다.
import ollama response = ollama.generate(model='gemma:2b', prompt='큐비트란 무엇인가요?') print(response['response'])