FLUX.1-Kontext-dev: Model AI Peningkatan Gambar
Model AI untuk meningkatkan gambar dengan instruksi teks
Black Forest Labs telah merilis FLUX.1-Kontext-dev, sebuah model AI canggih untuk mengubah gambar berdasarkan instruksi teks.
Model AI untuk meningkatkan gambar dengan instruksi teks
Black Forest Labs telah merilis FLUX.1-Kontext-dev, sebuah model AI canggih untuk mengubah gambar berdasarkan instruksi teks.
Aktifkan percepatan GPU untuk Docker Model Runner dengan dukungan NVIDIA CUDA
Docker Model Runner adalah alat resmi Docker untuk menjalankan model AI secara lokal, tetapi mengaktifkan percepatan GPU NVidia di Docker Model Runner memerlukan konfigurasi khusus.
Potong biaya LLM sebesar 80% dengan optimisasi token yang cerdas
Optimasi token adalah keterampilan kritis yang membedakan aplikasi LLM yang hemat biaya dari eksperimen yang menghabiskan anggaran.
Foto-foto Anda pada cadangan berbasis AI yang dhosting sendiri
Immich adalah solusi manajemen foto dan video open-source, self-hosted yang revolusioner yang memberi Anda kendali penuh atas kenangan Anda. Dengan fitur yang sebanding dengan Google Photos - termasuk pengenalan wajah berbasis AI, pencarian cerdas, dan cadangan mobile otomatis - semuanya sambil menjaga data Anda tetap pribadi dan aman di server Anda sendiri.
Benchmark GPT-OSS 120b pada tiga platform AI
Saya menemukan beberapa uji kinerja menarik dari GPT-OSS 120b yang berjalan di Ollama di tiga platform berbeda: NVIDIA DGX Spark, Mac Studio, dan RTX 4080. Model GPT-OSS 120b dari perpustakaan Ollama memiliki ukuran 65GB, yang berarti tidak masuk ke dalam 16GB VRAM dari RTX 4080 (atau yang lebih baru RTX 5080).
Bangun server MCP untuk asisten AI dengan contoh Python
Model Context Protocol (MCP) sedang merevolusi cara asisten AI berinteraksi dengan sumber data eksternal dan alat. Dalam panduan ini, kita akan menjelaskan bagaimana membangun server MCP dalam Python, dengan contoh yang berfokus pada kemampuan pencarian web dan pengambilan data.
Referensi cepat untuk perintah Docker Model Runner
Docker Model Runner (DMR) adalah solusi resmi Docker untuk menjalankan model AI secara lokal, yang diperkenalkan pada April 2025. Cheat sheet ini memberikan referensi cepat untuk semua perintah penting, konfigurasi, dan praktik terbaik.
Bandingkan Docker Model Runner dan Ollama untuk LLM lokal
Menjalankan model bahasa besar (LLMs) secara lokal telah semakin populer untuk privasi, kontrol biaya, dan kemampuan offline. Lanskap berubah secara signifikan pada April 2025 ketika Docker memperkenalkan Docker Model Runner (DMR), solusi resmi mereka untuk pengujian model AI.
Chip khusus sedang membuat inferensi AI lebih cepat dan murah.
Masa depan AI bukan hanya tentang model yang lebih cerdas models — tetapi tentang silikon yang lebih cerdas.
Perangkat keras khusus untuk inference LLM sedang mendorong revolusi yang mirip dengan perpindahan penambangan Bitcoin ke ASICs.
Ketersediaan, harga ritel dunia nyata di enam negara, dan perbandingan dengan Mac Studio.
NVIDIA DGX Spark adalah nyata, tersedia untuk dibeli 15 Oktober 2025, dan ditujukan untuk pengembang CUDA yang membutuhkan pekerjaan LLM lokal dengan tumpukan AI NVIDIA yang terintegrasi. Harga MSRP AS $3.999; harga ritel UK/DE/JP lebih tinggi karena pajak dan saluran. Harga publik AUD/KRW belum secara luas diposting.
Integrasi Ollama dengan Go: Panduan SDK, contoh, dan praktik terbaik untuk produksi.
Panduan ini memberikan gambaran menyeluruh tentang SDK Go untuk Ollama yang tersedia dan membandingkan set fitur mereka.
Membandingkan kecepatan, parameter, dan kinerja dari dua model ini
Berikut adalah perbandingan antara Qwen3:30b dan GPT-OSS:20b dengan fokus pada pemenuhan instruksi dan parameter kinerja, spesifikasi, serta kecepatan:
Tidak terlalu menarik.
Model GPT-OSS Ollama memiliki masalah berulang dalam menangani output terstruktur, terutama ketika digunakan dengan kerangka kerja seperti LangChain, OpenAI SDK, vllm, dan lainnya.
Beberapa cara untuk mendapatkan output terstruktur dari Ollama
Model Bahasa Besar (LLMs) sangat kuat, tetapi dalam produksi kita jarang ingin paragraf bebas. Sebaliknya, kita ingin data yang dapat diprediksi: atribut, fakta, atau objek terstruktur yang dapat Anda masukkan ke dalam aplikasi. Itu adalah Keluaran Terstruktur LLM.
Uji coba saya sendiri tentang jadwal model ollama ```
Di sini saya membandingkan berapa banyak VRAM versi baru Ollama yang dialokasikan untuk model dengan versi sebelumnya Ollama. Versi baru justru lebih buruk.