Self-Hosting

호주 RTX 5090, 2026 년 3 월 가격과 재고 현실

호주 RTX 5090, 2026 년 3 월 가격과 재고 현실

호주에서는 RTX 5090 가 품귀 현상을 보이고 가격이 비쌉니다.

호주에 RTX 5090 재고가 있습니다. 마침내. 하지만 하나를 찾아도 현실과 동떨어진 프리미엄 가격을 지불해야 합니다.

GPU 및 영구 모델 스토리지 사용 Docker Compose 기반 Ollama

GPU 및 영구 모델 스토리지 사용 Docker Compose 기반 Ollama

GPU 와 영속성을 갖춘 Compose 우선 Ollama 서버

Ollama 는 베어 메탈 (bare metal) 환경에서 훌륭하게 작동합니다. 이를 서비스처럼 다룰 때 더욱 흥미로운데, 안정적인 엔드포인트, 고정된 버전, 영구 저장소, 그리고 GPU 가 있거나 없는 명확한 상태를 보장받기 때문입니다.

RAG 및 검색을 위한 텍스트 임베딩 - Python, Ollama, OpenAI 호환 API

RAG 및 검색을 위한 텍스트 임베딩 - Python, Ollama, OpenAI 호환 API

RAG 임베딩 - Python, Ollama, OpenAI API.

검색 증강 생성 (RAG)을 공부 중이시라면, 이 섹션에서는 텍스트 임베딩이 무엇인지, 검색 및 검색 (retrieval) 과 어떻게 연관되는지, 그리고 Ollama 또는 OpenAI 호환 HTTP API(많은 llama.cpp 기반 서버에서 제공하는 방식) 를 사용하여 Python에서 두 가지 일반적인 로컬 설정을 호출하는 방법을 쉽게 설명합니다.

OpenAI 호환 로컬 LLM을 위한 llama.swap 모델 스위처 빠른 시작

OpenAI 호환 로컬 LLM을 위한 llama.swap 모델 스위처 빠른 시작

클라이언트를 변경하지 않고 로컬 LLM을 핫스왑합니다.

곧 vLLM, llama.cpp 등 여러 스택을 각각 다른 포트에서 돌리게 될 것입니다. 하지만 하위 시스템은 여전히 **/v1**이라는 단일 기본 URL 을 원합니다. 그렇지 않으면 포트, 프로필, 일회용 스크립트를 계속 조정해야 합니다. llama-swap은 이러한 스택들 앞에 세워지는 /v1 프록시입니다.

OpenHands 코딩 비서 빠른 시작: 설치, CLI 플래그, 예시

OpenHands 코딩 비서 빠른 시작: 설치, CLI 플래그, 예시

OpenHands CLI, 몇 분 만에 빠르게 시작하세요

OpenHands 는 AI 기반 소프트웨어 개발 에이전트를 위한 오픈소스, 모델 불특정 플랫폼입니다. 이 플랫폼은 에이전트가 단순한 자동 완성 도구가 아닌, 실제 코딩 파트너처럼 행동할 수 있도록 합니다.

LocalAI 빠른 시작: OpenAI 호환 대형 언어 모델을 로컬에서 실행하기

LocalAI 빠른 시작: OpenAI 호환 대형 언어 모델을 로컬에서 실행하기

분산형 로컬 AI 를 통해 OpenAI 호환 API 를 LocalAI 로 몇 분 안에 자체 호스팅하세요.

LocalAI 는 자신의 하드웨어 (노트북, 워크스테이션, 온프레미스 서버) 에서 AI 워크로드를 실행하기 위해 설계된 자체 호스팅, 로컬 우선 추론 서버로, OpenAI API 와의 호환성을 제공하여 기존 도구를 그대로 사용할 수 있도록 합니다.