Ollama

Vane (Perplexica 2.0) Ollama 와 llama.cpp 를 이용한 빠른 시작

Vane (Perplexica 2.0) Ollama 와 llama.cpp 를 이용한 빠른 시작

로컬 LLM을 활용한 자체 호스팅 AI 검색

Vane 은 “인용된 AI 검색” 분야에서 더 실용적인 솔루션 중 하나입니다. 이는 실시간 웹 검색과 로컬 또는 클라우드 LLM 을 결합하면서도 전체 스택을 사용자의 통제 하에 두는 자체 호스팅형 답변 엔진입니다.

GPU 및 영구 모델 스토리지 사용 Docker Compose 기반 Ollama

GPU 및 영구 모델 스토리지 사용 Docker Compose 기반 Ollama

GPU 와 영속성을 갖춘 Compose 우선 Ollama 서버

Ollama 는 베어 메탈 (bare metal) 환경에서 훌륭하게 작동합니다. 이를 서비스처럼 다룰 때 더욱 흥미로운데, 안정적인 엔드포인트, 고정된 버전, 영구 저장소, 그리고 GPU 가 있거나 없는 명확한 상태를 보장받기 때문입니다.

RAG 및 검색을 위한 텍스트 임베딩 - Python, Ollama, OpenAI 호환 API

RAG 및 검색을 위한 텍스트 임베딩 - Python, Ollama, OpenAI 호환 API

RAG 임베딩 - Python, Ollama, OpenAI API.

검색 증강 생성 (RAG)을 공부 중이시라면, 이 섹션에서는 텍스트 임베딩이 무엇인지, 검색 및 검색 (retrieval) 과 어떻게 연관되는지, 그리고 Ollama 또는 OpenAI 호환 HTTP API(많은 llama.cpp 기반 서버에서 제공하는 방식) 를 사용하여 Python에서 두 가지 일반적인 로컬 설정을 호출하는 방법을 쉽게 설명합니다.

LLM 자체 호스팅과 AI 주권

LLM 자체 호스팅과 AI 주권

자체 호스팅 LLM으로 데이터와 모델을 제어하세요

자체 호스팅 LLM은 데이터, 모델 및 추론을 당신의 통제 하에 유지하며, 팀, 기업, 국가를 위한 **AI 주권**으로 가는 실용적인 경로를 제시합니다.

BAML과 Instructor: 구조화된 LLM 출력

BAML과 Instructor: 구조화된 LLM 출력

BAML과 Instructor를 활용한 타입 안전한 LLM 출력

프로덕션 환경에서 대규모 언어 모델(LLM)을 사용할 때 구조화되고 타입 안전(structured, type-safe)한 출력을 얻는 것은 매우 중요합니다. 두 가지 인기 있는 프레임워크인 BAML과 Instructor는 이 문제를 해결하는 서로 다른 접근 방식을 취합니다.