
Masalah Output Terstruktur Ollama GPT-OSS
Tidak terlalu menarik.
Model GPT-OSS Ollama memiliki masalah berulang dalam menangani output terstruktur, terutama ketika digunakan dengan kerangka kerja seperti LangChain, OpenAI SDK, vllm, dan lainnya.
Tidak terlalu menarik.
Model GPT-OSS Ollama memiliki masalah berulang dalam menangani output terstruktur, terutama ketika digunakan dengan kerangka kerja seperti LangChain, OpenAI SDK, vllm, dan lainnya.
Beberapa cara untuk mendapatkan output terstruktur dari Ollama
Model Bahasa Besar (LLMs) sangat kuat, tetapi dalam produksi kita jarang ingin paragraf bebas. Sebaliknya, kita ingin data yang dapat diprediksi: atribut, fakta, atau objek terstruktur yang dapat Anda masukkan ke dalam aplikasi. Itu adalah Keluaran Terstruktur LLM.
Uji coba saya sendiri tentang jadwal model ollama ```
Di sini saya membandingkan berapa banyak VRAM versi baru Ollama yang dialokasikan untuk model dengan versi sebelumnya Ollama. Versi baru justru lebih buruk.
Pandangan saya terhadap kondisi saat ini pengembangan Ollama
Ollama dengan cepat menjadi salah satu alat paling populer untuk menjalankan LLM secara lokal. CLI yang sederhana dan manajemen model yang terintegrasi telah membuatnya menjadi pilihan utama bagi pengembang yang ingin bekerja dengan model AI di luar awan. Namun, seperti halnya dengan banyak platform yang menjanjikan, sudah ada tanda-tanda Enshittification:
Gambaran singkat tentang antarmuka pengguna (UI) paling menonjol untuk Ollama pada tahun 2025
Ollama yang dihosting secara lokal memungkinkan Anda menjalankan model bahasa besar di mesin Anda sendiri, tetapi menggunakan Ollama melalui baris perintah tidak ramah pengguna.
Berikut beberapa proyek open-source yang menyediakan antarmuka gaya ChatGPT yang menghubungkan ke Ollama lokal.
Perbandingan alat dan bahasa pemrograman perangkat lunak
Surat The Pragmatic Engineer yang diterbitkan beberapa hari yang lalu memuat statistik survei mengenai popularitas bahasa pemrograman, IDE, dan alat AI serta data lainnya untuk pertengahan tahun 2025.
Pada Juli 2025, segera akan tersedia
Nvidia segera merilis NVIDIA DGX Spark - superkomputer kecil AI berbasis arsitektur Blackwell dengan 128+GB RAM terpadu dan kinerja AI sebesar 1 PFLOPS. Perangkat yang menarik untuk menjalankan LLM.
Menerapkan RAG? Berikut beberapa potongan kode Go - 2...
Karena Ollama standar tidak memiliki API rerank langsung, Anda perlu menerapkan reranking menggunakan Qwen3 Reranker dalam GO dengan menghasilkan embedding untuk pasangan query-dokumen dan memberi skor mereka.
Beberapa waktu yang lalu saya melatih AI detektor objek
Pada satu hari musim dingin di bulan Juli… yang berada di Australia… saya merasa ada kebutuhan mendesak untuk melatih model AI dalam mendeteksi batang reinforcement beton yang tidak terkait…
qwen3 8b, 14b dan 30b, devstral 24b, mistral small 24b
Dalam uji coba ini saya membandingkan bagaimana berbagai LLM yang dihosting di Ollama menerjemahkan halaman Hugo dari bahasa Inggris ke Jerman. Tiga halaman yang saya uji berbeda topiknya, memiliki beberapa markdown yang menarik dengan struktur tertentu: header, daftar, tabel, tautan, dll.
Menerapkan RAG? Berikut adalah beberapa contoh kode dalam Golang...
Ini sedikit Contoh kode Go untuk reranking memanggil Ollama untuk menghasilkan embedding untuk query dan setiap dokumen kandidat, kemudian mengurutkan menurun berdasarkan kesamaan kosinus.
Mempertimbangkan pemasangan GPU kedua untuk LLM?
Bagaimana Jalur PCIe Mempengaruhi Kinerja LLM? Tergantung pada tugasnya. Untuk pelatihan dan inferensi multi-GPU — penurunan kinerja sangat signifikan.
LLM untuk mengekstrak teks dari HTML...
Dalam perpustakaan model Ollama terdapat model yang mampu mengubah konten HTML menjadi Markdown, yang berguna untuk tugas konversi konten.
Seberapa berbedakan mereka?
Cursor AI vs GitHub Copilot vs Cline AI vs...
Akan disebutkan di sini beberapa alat pemrograman yang didukung AI dan Asisten Pemrograman AI beserta keunggulan mereka.