Ollama

LLM-Selbsthosting und KI-Souveränität

LLM-Selbsthosting und KI-Souveränität

Daten und Modelle mit selbstgehosteten LLMs kontrollieren

Selbstgehostete LLMs ermöglichen die Kontrolle über Daten, Modelle und Inferenz - ein praktischer Weg zur AI-Souveränität für Teams, Unternehmen und Nationen.
Hier: Was AI-Souveränität ist, welche Aspekte und Methoden zur Erstellung verwendet werden, wie LLM-Selbsthosting dabei eine Rolle spielt und wie Länder das Problem angehen.

Verwendung der Ollama Web Search API in Python

Verwendung der Ollama Web Search API in Python

AI-Suchagenten mit Python und Ollama erstellen

Ollamas Python-Bibliothek umfasst nun native OLlama Websuche-Funktionen. Mit nur wenigen Codezeilen können Sie Ihre lokalen LLMs mit Echtzeitinformationen aus dem Web erweitern, um Halluzinationen zu reduzieren und die Genauigkeit zu verbessern.

KI-Infrastruktur auf Consumer-Hardware

KI-Infrastruktur auf Consumer-Hardware

Enterprise-KI auf Budget-Hardware mit Open-Modellen einsetzen

Die Demokratisierung von KI ist da. Mit Open-Source-LLMs wie Llama 3, Mixtral und Qwen, die nun mit proprietären Modellen mithalten, können Teams leistungsstarke KI-Infrastruktur mit Consumer-Hardware aufbauen - Kosten senken, während sie die vollständige Kontrolle über Datenschutz und Bereitstellung behalten.

NVIDIA DGX Spark vs. Mac Studio vs. RTX-4080: Ollama-Leistungsvergleich

NVIDIA DGX Spark vs. Mac Studio vs. RTX-4080: Ollama-Leistungsvergleich

GPT-OSS 120b Benchmarks auf drei KI-Plattformen

Ich habe einige interessante Leistungsuntersuchungen zu GPT-OSS 120b ausgegraben, das auf Ollama auf drei verschiedenen Plattformen läuft: NVIDIA DGX Spark, Mac Studio und RTX 4080. Das GPT-OSS 120b-Modell aus der Ollama-Bibliothek wiegt 65 GB, was bedeutet, dass es nicht in die 16 GB VRAM einer RTX 4080 (oder der neueren RTX 5080) passt.