AI

Objekterkennung mit TensorFlow

Objekterkennung mit TensorFlow

Vor einiger Zeit habe ich eine Objekterkennungs-KI trainiert

An einem kalten Wintertag im Juli… das ist in Australien… verspürte ich ein dringendes Bedürfnis, ein KI-Modell zum Erkennen von unverkapselten Stahlbewehrungsstäben zu trainieren…

Suche vs. Deepsearch vs. Deep Research

Suche vs. Deepsearch vs. Deep Research

Wie unterschiedlich sind sie?

  • Suche eignet sich am besten für die schnelle und direkte Informationsbeschaffung anhand von Stichwörtern.
  • Deep Search zeichnet sich durch das Verständnis von Kontext und Intent aus und liefert für komplexe Anfragen relevantere und umfassendere Ergebnisse.
Cloud-LLM-Anbieter

Cloud-LLM-Anbieter

Kurze Liste von LLM-Anbietern

Die Verwendung von LLMs ist nicht sehr teuer, es könnte kein Bedarf bestehen, neue, unglaublich leistungsstarke GPUs zu kaufen.
Hier ist eine Liste der LLM-Anbieter in der Cloud mit den LLMs, die sie hosten.

Test: Wie Ollama die Intel CPU Performance und Efficient Cores verwendet

Test: Wie Ollama die Intel CPU Performance und Efficient Cores verwendet

Ollama auf Intel CPU: Effiziente vs. Leistungscores

Ich habe eine Theorie, die ich testen möchte – wenn man alle Kerne eines Intel-Prozessors nutzt, würde das die Geschwindigkeit von LLMs erhöhen? Test: Wie Ollama die Leistung des Intel-Prozessors und der effizienten Kerne nutzt

Es nervt mich, dass das neue Gemma3-Modell mit 27 Bit (gemma3:27b, 17 GB auf Ollama) nicht in die 16 GB VRAM meines GPUs passt und teilweise auf dem CPU läuft.

Wie Ollama parallele Anfragen verarbeitet

Wie Ollama parallele Anfragen verarbeitet

„Konfigurieren von ollama für parallelle Anfragenbearbeitung.“

Wenn der Ollama-Server zwei Anfragen gleichzeitig erhält, hängt sein Verhalten von seiner Konfiguration und den verfügbaren Systemressourcen ab.

Vibe Coding – Bedeutung und Beschreibung

Vibe Coding – Bedeutung und Beschreibung

Was ist diese trendige, von KI unterstützte Programmierung?

Vibe coding ist ein AI-getriebener Programmieransatz, bei dem Entwickler die gewünschte Funktionalität in natürlicher Sprache beschreiben, wodurch AI-Tools den Code automatisch generieren.

Testen von Deepseek-R1 mit Ollama

Testen von Deepseek-R1 mit Ollama

Vergleich zweier deepseek-r1-Modelle mit zwei Basismodellen

DeepSeek’s erste Generation von Reasoning-Modellen mit Leistungen, die vergleichbar sind mit OpenAI-o1, einschließlich sechs dichter Modelle, die aus DeepSeek-R1 basierend auf Llama und Qwen destilliert wurden.