Ollama

Self-hosting Perplexica - dengan Ollama

Self-hosting Perplexica - dengan Ollama

Menjalankan layanan gaya copilot secara lokal? Mudah!

Itu sangat menarik! Alih-alih memanggil copilot atau perplexity.ai dan memberi tahu seluruh dunia apa yang Anda cari, sekarang Anda dapat menjalankan layanan serupa di PC atau laptop Anda sendiri!

Frontend LLM

Frontend LLM

Tidak terlalu banyak pilihan, tetapi tetap....

Saat saya mulai bereksperimen dengan LLM, UI-nya sedang dalam pengembangan aktif dan sekarang beberapa dari mereka benar-benar bagus.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Menguji deteksi kesalahan logika

Baru-baru ini kita melihat beberapa LLM baru yang dirilis. Masa yang menarik. Mari kita uji dan lihat bagaimana mereka berperforma saat mendeteksi fallasi logis.

Menulis prompt yang efektif untuk LLMs

Menulis prompt yang efektif untuk LLMs

Memerlukan beberapa eksperimen tetapi

Masih ada beberapa pendekatan umum bagaimana cara menulis prompt yang baik agar LLM tidak bingung mencoba memahami apa yang Anda inginkan darinya.