Справочник Ollama
Скомпилировал некоторые для будущего использования...
Вот список и примеры наиболее полезных команд Ollama (Справочник по командам Ollama) Я составил его некоторое время назад. Надеюсь, он будет полезен для вас.
Этот справочник Ollama фокусируется на командных строковых командах, управлении моделями и настройке
Установка
- Вариант 1: Загрузка с веб-сайта
- Посетите ollama.com и загрузите установщик для вашей операционной системы (Mac, Linux или Windows).
- Вариант 2: Установка через командную строку
- Для пользователей Mac и Linux используйте команду:
curl https://ollama.ai/install.sh | sh
- Следуйте инструкциям на экране и введите свой пароль при запросе[3].
- Для пользователей Mac и Linux используйте команду:
Требования к системе
- Операционная система: Mac или Linux (версия для Windows в разработке)
- Память (ОЗУ): минимум 8 ГБ, рекомендуется 16 ГБ или больше
- Хранение: как минимум ~10 ГБ свободного места
- Процессор: относительно современный процессор (за последние 5 лет)[3].
Основные команды CLI Ollama
Команда | Описание |
---|---|
ollama serve |
Запускает Ollama на вашей локальной системе. |
ollama create <new_model> |
Создает новую модель на основе существующей для настройки или обучения. |
ollama show <model> |
Отображает сведения о конкретной модели, такие как ее конфигурация и дата выпуска. |
ollama run <model> |
Запускает указанную модель, делая ее готовой для взаимодействия. |
ollama pull <model> |
Загружает указанную модель на вашу систему. |
ollama list |
Перечисляет все загруженные модели. |
ollama ps |
Показывает модели, которые в настоящее время запущены. |
ollama stop <model> |
Останавливает указанную запущенную модель. |
ollama rm <model> |
Удаляет указанную модель с вашей системы. |
ollama help |
Предоставляет помощь по любому команде. |
Управление моделями
-
Загрузка модели:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Эта команда загружает указанную модель (например, Gemma 2B) на вашу систему.
-
Запуск модели:
ollama run qwen2.5:32b-instruct-q3_K_S
Эта команда запускает указанную модель и открывает интерактивный REPL для взаимодействия.
-
Перечисление моделей:
ollama list
Эта команда перечисляет все модели, загруженные на вашу систему.
-
Остановка модели:
ollama stop llama3.1:8b-instruct-q8_0
Эта команда останавливает указанную запущенную модель.
Настройка моделей
-
Установка системного приказа: Внутри REPL Ollama вы можете установить системный приказ для настройки поведения модели:
>>> /set system Для всех заданных вопросов отвечайте простым английским языком, избегая технических терминов, насколько это возможно >>> /save ipe >>> /bye
Затем запустите настроенную модель:
ollama run ipe
Это устанавливает системный приказ и сохраняет модель для последующего использования.
-
Создание файла пользовательской модели: Создайте текстовый файл (например,
custom_model.txt
) со следующей структурой:FROM llama3.1 SYSTEM [Ваши пользовательские инструкции здесь]
Затем выполните:
ollama create mymodel -f custom_model.txt ollama run mymodel
Это создает настроенную модель на основе инструкций в файле[3].
Использование Ollama с файлами
-
Создание резюме из файла:
ollama run llama3.2 "Создайте резюме содержимого этого файла в 50 словах." < input.txt
Эта команда создает резюме содержимого файла
input.txt
с использованием указанной модели. -
Запись ответов модели в файл:
ollama run llama3.2 "Расскажите мне о возобновляемой энергии." > output.txt
Эта команда сохраняет ответ модели в
output.txt
.
Общие случаи использования
-
Генерация текста:
- Создание резюме большого текстового файла:
ollama run llama3.2 "Создайте резюме следующего текста:" < long-document.txt
- Генерация контента:
ollama run llama3.2 "Напишите кратическую статью о преимуществах использования ИИ в здравоохранении." > article.txt
- Ответы на конкретные вопросы:
ollama run llama3.2 "Какие самые последние тенденции в ИИ и как они повлияют на здравоохранение?"
.
- Создание резюме большого текстового файла:
-
Обработка и анализ данных:
- Классификация текста на положительный, отрицательный или нейтральный:
ollama run llama3.2 "Проанализируйте настроение этого отзыва клиента: 'Продукт фантастический, но доставка была медленной.'"
- Категоризация текста в предопределенные категории: Используйте похожие команды для классификации или категоризации текста на основе предопределенных критериев.
- Классификация текста на положительный, отрицательный или нейтральный:
Использование Ollama с Python
- Установка библиотеки Ollama для Python:
pip install ollama
- Генерация текста с использованием Python:
Этот фрагмент кода генерирует текст с использованием указанной модели и приказа.
import ollama response = ollama.generate(model='gemma:2b', prompt='что такое кубит?') print(response['response'])
Полезные ссылки
- Сравнение помощников по написанию кода AI
- Перемещение моделей Ollama на другой диск или папку
- Как Ollama обрабатывает параллельные запросы
- Как Ollama использует производительность и эффективные ядра процессора Intel
- Тестирование Deepseek-r1 на Ollama
- Справочник по Bash
- Модели встраивания и повторной ранжировки Qwen3 на Ollama: передовые достижения