오픈 웹유아: 자체 호스팅 LLM 인터페이스
로컬 LLM을 위한 자체 호스팅형 ChatGPT 대안
Open WebUI는 대규모 언어 모델과 상호 작용할 수 있는 강력하고 확장성이 뛰어난 자체 호스팅 웹 인터페이스입니다.
LLM을 처음 실험할 때 그들의 UI는 활발한 개발 중이었고, 지금은 그 중 일부가 정말 잘 되어 있습니다.
!- Jan - LLM용 멀티플랫폼 UI(jan-site_w678.jpg Jan - LLM용 프론트엔드 - 설치)
어두운, 밝은, 투명한 테마가 있습니다.
!- Jan LLM 프론트엔드 - 메인 창(jan-self_w678.jpg Jan - LLM용 프론트엔드 - 왜 자가호스팅인지에 대한 예시 응답)
Anthropic, Cohere, OpenAI, NvidiaNIM, MistralAI 등 여러 기존 백엔드에 연결할 수 있으며, 자체적으로 모델을 호스팅할 수도 있습니다 - 아래 스크린샷의 Cortex 섹션을 참조하면, Jan이 로컬에서 Llama3 8b q4와 Phi3 medium(q4)을 다운로드하고 호스팅하고 있음을 알 수 있습니다.
!- Jan LLM 프론트엔드 - 설정 옵션(jan-config_w678.jpg Jan LLM 프론트엔드 - 설정 옵션)
장점 (좋아했던 점):
단점:
매우 주목할 만한 것
또 하나 매우 다용도로 사용할 수 있는 것
LLM Studio는 제게 LLM의 UI로는 최선이 아니지만, Huggingface 모델에 대한 접근성이 더 좋습니다.
네, 그건 또한 사용자 인터페이스입니다, 다만 명령줄 기반의 것이죠.
llama3.1 LLM을 실행하려면 다음과 같이 실행하세요:
ollama run llama3.1
완료되면, ollama 명령줄을 종료하기 위해 다음 명령을 보냅니다:
/bye
아직 설치하지 않았다면 cUrl을 설치해야 합니다:
sudo apt-get install curl
ollama에서 호스팅된 로컬 mistral nemo q8 llm을 호출하려면, 프롬프트 p.json이 포함된 로컬 파일을 생성하세요:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: What is post-modernism?,
stream: false
}
그리고 이제 bash 터미널에서 실행하세요:
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
결과는 파일 p-result.json에 저장됩니다.
만약 결과를 바로 출력하고 싶다면:
curl -X POST http://localhost:11434/api/generate -d @p.json
이것들은 테스트하지 않았지만, LLM UI의 매우 포괄적인 목록입니다:
로컬 LLM을 위한 자체 호스팅형 ChatGPT 대안
Open WebUI는 대규모 언어 모델과 상호 작용할 수 있는 강력하고 확장성이 뛰어난 자체 호스팅 웹 인터페이스입니다.
2025년 Ollama의 가장 주목받는 UI에 대한 간략한 개요
로컬에서 호스팅된 Ollama는 자신의 기계에서 대규모 언어 모델을 실행할 수 있게 해주지만, 명령줄을 통해 사용하는 것은 사용자 친화적이지 않습니다.
다음은 로컬 Ollama에 연결되는 **ChatGPT 스타일 인터페이스**를 제공하는 여러 오픈소스 프로젝트입니다.
자체 호스팅 AI 검색 엔진 두 가지 비교
맛있는 음식은 눈에도 즐거움을 줍니다.
하지만 이번 포스팅에서는 두 가지 AI 기반의 검색 시스템인 Farfalle 및 Perplexica를 비교해 보겠습니다.
로컬에서 코파일럿 스타일 서비스를 실행하나요? 간단하죠!
이것은 매우 흥미로운 일입니다!
Copilot이나 perplexity.ai를 호출하고 세상에 당신이 무엇을 원하는지 말하는 대신,
이제 자신의 PC나 강력한 노트북에서 유사한 서비스를 호스팅할 수 있습니다!