
Поставщики облачных LLM
Краткий список поставщиков LLM
Использование языковых моделей не очень дорого, возможно, нет необходимости покупать новый мощный GPU. Вот список провайдеров языковых моделей в облаке с моделями, которые они размещают.
Краткий список поставщиков LLM
Использование языковых моделей не очень дорого, возможно, нет необходимости покупать новый мощный GPU. Вот список провайдеров языковых моделей в облаке с моделями, которые они размещают.
Ollama на процессоре Intel: эффективные ядра против производительных ядер
У меня есть теория для проверки - если использовать все ядра процессора Intel для повышения скорости LLM Меня беспокоит, что новый модель gemma3 27 бит (gemma3:27b, 17 ГБ на ollama) не помещается в 16 ГБ видеопамяти моего GPU, и частично работает на CPU.
Искусственный интеллект требует много мощности...
В условиях хаоса современного мира здесь я сравниваю технические характеристики различных карт, подходящих для задач AI (Deep Learning, Обнаружение объектов и LLMs). Однако они все невероятно дорогие.
Настройка ollama для выполнения параллельных запросов.
Когда сервер Ollama получает два запроса одновременно, его поведение зависит от настройки и доступных системных ресурсов.
Что такое это модное кодирование с поддержкой ИИ?
Vibe coding — это подход к программированию, управляемый искусственным интеллектом, при котором разработчики описывают желаемую функциональность на естественном языке, позволяя инструментам ИИ генерировать код автоматически.
Весь набор инструментов MM* находится на EOL...
Я довольно часто использовал MMDetection (mmengine, mdet, mmcv),
но теперь выглядит так, будто он вышел из игры.
К сожалению. Мне нравился его модельный зоопарк.
Сравнение двух моделей deepseek-r1 с двумя базовыми
DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включая шесть плотных моделей, дистиллированных из DeepSeek-R1 на основе Llama и Qwen.
Скомпилировал этот список команд Ollama некоторое время назад...
Вот список и примеры самых полезных команд Ollama (шпаргалка по командам Ollama), которые я собрал некоторое время назад. Надеюсь, это будет полезно и вам тоже.
Следующий раунд тестов LLM
Недавно был выпущен. Давайте посмотрим, как Mistral Small справляется по сравнению с другими LLMs тестирование производительности Mistral Small по сравнению с другими LLMs.
Python-код для переранжирования RAG
Потрясающая новая модель ИИ для генерирования изображения на основе текста
Недавно Black Forest Labs опубликовала набор моделей генерации изображений на основе текста. Эти модели, как утверждается, имеют значительно более высокое качество вывода. Попробуем их
Так много моделей с миллиардами параметров…
Тестирование, как Perplexica работает с различными LLM, запущенными на локальном Ollama: Llama3, Llama3.1, Hermes 3, Mistral Nemo, Mistral Large, Gemma 2, Qwen2, Phi 3 и Command-r различных квант и выбор Лучший LLM для Perplexica
Сравнение двух самонастраиваемых поисковых движков ИИ
Вкусная еда - это удовольствие не только для глаз. Но в этом посте мы сравним две системы поиска на основе ИИ, Farfalle и Perplexica.
Выполняете сервис в стиле Copilot локально? Просто!
Это очень вдохновляет!
Вместо того чтобы вызывать copilot или perplexity.ai и рассказывать всему миру, что вы ищете,
теперь вы можете развернуть подобную службу на своем собственном ПК или ноутбуке!
Тестирование обнаружения логических ошибок
Недавно мы наблюдали выход нескольких новых LLM. Возбуждающие времена. Давайте протестируем и увидим, как они справляются с обнаружением логических ошибок.