AI

OpenClaw 기술 생태계 및 실전 활용 추천

OpenClaw 기술 생태계 및 실전 활용 추천

가치 있게 유지해야 할 기술과 건너뛰어야 할 기술

OpenClaw 는 두 가지 확장 스토리가 있으며, 서로 혼동하기 쉽습니다.

플러그인은 런타임을 확장합니다. 반면 스킬은 에이전트의 행동을 확장합니다.

OpenClaw 플러그인 — 생태계 가이드와 실용적인 선택

OpenClaw 플러그인 — 생태계 가이드와 실용적인 선택

플러그인이 우선입니다. 스킬 명칭은 간략하게 표기합니다.

이 기사는 OpenClaw 플러그인에 대해 다룹니다. OpenClaw 플러그인은 채널, 모델 제공자, 도구, 음성, 메모리, 미디어, 웹 검색 및 기타 런타임 표면을 추가하는 네이티브 게이트웨이 패키지입니다.

Vane (Perplexica 2.0) Ollama 와 llama.cpp 를 이용한 빠른 시작

Vane (Perplexica 2.0) Ollama 와 llama.cpp 를 이용한 빠른 시작

로컬 LLM을 활용한 자체 호스팅 AI 검색

Vane 은 “인용된 AI 검색” 분야에서 더 실용적인 솔루션 중 하나입니다. 이는 실시간 웹 검색과 로컬 또는 클라우드 LLM 을 결합하면서도 전체 스택을 사용자의 통제 하에 두는 자체 호스팅형 답변 엔진입니다.

Claude Code의 Ollama 및 llama.cpp 설치 및 설정, 가격 정책

Claude Code의 Ollama 및 llama.cpp 설치 및 설정, 가격 정책

로컬 모델 백엔드를 갖춘 에이전틱 코딩

Claude Code는 마케팅만 뛰어난 자동 완성 도구가 아닙니다. 이것은 에이전트 기반 코딩 도구입니다. 코드베이스를 읽고, 파일을 편집하며, 명령을 실행하고, 개발 도구와 통합됩니다.

허메스 AI 어시스턴트 - 설치, 설정, 워크플로우 및 문제 해결

허메스 AI 어시스턴트 - 설치, 설정, 워크플로우 및 문제 해결

개발자를 위한 Hermes Agent 설치 및 빠른 시작

Hermes Agent은(는) 로컬 머신이나 저비용 VPS에서 실행되는 자체 호스팅(Self-hosted) 및 모델 독립형(Model-agnostic) AI 어시스턴트입니다. 이 도구는 터미널 및 메시징 인터페이스를 통해 작동하며, 반복적인 작업을 재사용 가능한 스킬(Skill)로 변환함으로써 시간이 지남에 따라 성능을 향상시킵니다.

TGI - 텍스트 생성 추론 - 설치, 구성, 문제 해결

TGI - 텍스트 생성 추론 - 설치, 구성, 문제 해결

TGI 를 설치하고 빠르게 배포하며 더 빠르게 디버깅하세요.

Text Generation Inference(TGI) 는 매우 특유의 에너지를 지니고 있습니다. 추론 분야에서 가장 새로운 기술은 아니지만, 이미 프로덕션 환경에서 발생하는 문제를 잘 이해하고 있습니다.

GPU 및 영구 모델 스토리지 사용 Docker Compose 기반 Ollama

GPU 및 영구 모델 스토리지 사용 Docker Compose 기반 Ollama

GPU 와 영속성을 갖춘 Compose 우선 Ollama 서버

Ollama 는 베어 메탈 (bare metal) 환경에서 훌륭하게 작동합니다. 이를 서비스처럼 다룰 때 더욱 흥미로운데, 안정적인 엔드포인트, 고정된 버전, 영구 저장소, 그리고 GPU 가 있거나 없는 명확한 상태를 보장받기 때문입니다.

OpenAI 호환 로컬 LLM을 위한 llama.swap 모델 스위처 빠른 시작 가이드

OpenAI 호환 로컬 LLM을 위한 llama.swap 모델 스위처 빠른 시작 가이드

클라이언트를 변경하지 않고 로컬 LLM을 핫스왑합니다.

곧 vLLM, llama.cpp 등 여러 스택을 각각 다른 포트에서 관리하게 될 것입니다. 모든 다운스트림 시스템은 여전히 하나의 /v1 기본 URL 을 요구하며, 그렇지 않으면 포트, 프로필, 일회성 스크립트를 계속 조정해야 합니다. llama-swap은 이러한 스택들 앞에 위치한 /v1 프록시입니다.