Los mejores LLMs para OpenCode: de Gemma 4 a Qwen 3.6, probados localmente
Prueba del modelo de lenguaje OpenCode: estadísticas de codificación y precisión
He probado cómo funciona OpenCode con varios LLM alojados localmente en Ollama y llama.cpp, y para comparar, he añadido algunos modelos gratuitos de OpenCode Zen.