Qwen3 Embedding- en Rerankmodellen op Ollama: State-of-the-Art-prestaties

Nieuwe geweldige LLMs beschikbaar in Ollama

Inhoud

De Qwen3 Embedding en Reranker modellen zijn de nieuwste uitgaven in de Qwen-familie, specifiek ontworpen voor geavanceerde tekst-embedding, ophalen en herordenen taken.

Vreugde voor het oog Qwen3 Embedding Reranker Context lengte en embedding dimensies

De Qwen3 Embedding en Reranker modellen stellen een aanzienlijke vooruitgang voor in het multitaalige natuurlijke taalverwerking (NLP), met state-of-the-art prestaties in tekst-embedding en herordenen taken. Deze modellen, onderdeel van de Qwen-reeks ontwikkeld door Alibaba, zijn ontworpen om een breed scala aan toepassingen te ondersteunen, van semantische ophaling tot codezoekopdrachten. Hoewel Ollama een populaire open-source platform is voor het hosten en implementeren van grote taalmodellen (LLMs), is de integratie van Qwen3 modellen met Ollama niet expliciet beschreven in officiële documentatie. De modellen zijn echter beschikbaar via Hugging Face, GitHub en ModelScope, waardoor lokale implementatie mogelijk is via Ollama of vergelijkbare tools.

Overzicht van nieuwe Qwen3 Embedding en Reranker modellen op Ollama

Deze modellen zijn nu beschikbaar voor implementatie op Ollama in verschillende maten, met state-of-the-art prestaties en flexibiliteit voor een breed scala aan taal- en codegerelateerde toepassingen.

Belangrijke kenmerken en mogelijkheden

  • Modelmaten en flexibiliteit

    • Beschikbaar in meerdere maten: 0,6B, 4B en 8B parameters voor zowel embedding als herordenen taken.
    • Het 8B embedding model staat momenteel op de eerste plaats op de MTEB multitaal-lijst (zoals van 5 juni 2025, met een score van 70,58).
    • Ondersteunt een breed scala aan kwantisatieopties (Q4, Q5, Q8, enz.) voor het balanceren van prestaties, geheugengebruik en snelheid. Q5_K_M wordt aanbevolen voor de meeste gebruikers, omdat het de meeste modelprestaties behoudt terwijl het resource-efficiënt is.
  • Architectuur en training

    • Opgebouwd op de Qwen3 basis, met gebruikmaking van zowel dual-encoder (voor embeddings) als cross-encoder (voor herordenen) architectuur.
    • Embedding model: Verwerkt enkele tekstsegmenten en haalt semantische representaties op uit de eindverborgen toestand.
    • Herordenen model: Neemt tekstparen (bijvoorbeeld query en document) en genereert een relevantie-score met behulp van een cross-encoder aanpak.
    • Embedding modellen gebruiken een drie-stapentrainingparadigma: contrastieve voortraining, gesuperviseerde training met hoogwaardige data en modelvereniging voor optimale generalisatie en aanpasbaarheid.
    • Herordenen modellen worden direct getraind met hoogwaardige gelabelde data voor efficiëntie en effectiviteit.
  • Multitaal- en multitaskondersteuning

    • Ondersteunt meer dan 100 talen, waaronder programmeertalen, waardoor robuuste multitaal-, cross-linguaal- en codezoekfunctionaliteiten mogelijk zijn.
    • Embedding modellen bieden flexibele vectordefinities en gebruikersgedefinieerde instructies om prestaties aan te passen aan specifieke taken of talen.
  • Prestaties en gebruiksscenario’s

    • State-of-the-art resultaten in tekstophaling, codeophaling, classificatie, clustering en bitext-mining.
    • Herordenen modellen zijn uitstekend in verschillende tekstophalingsscenario’s en kunnen eenvoudig worden gecombineerd met embedding modellen voor eind-naar-eind ophalingspijplijnen.

Hoe gebruik je het op Ollama

Je kunt deze modellen op Ollama uitvoeren met opdrachten zoals:

ollama run dengcao/Qwen3-Embedding-8B:Q5_K_M
ollama run dengcao/Qwen3-Reranker-0.6B:F16

Kies de kwantisatieversie die het beste past bij jouw hardware en prestatiebehoeften.


Samenvattingstabel

Modeltype Beschikbare maten Belangrijkste sterktes Multitaalondersteuning Kwantisatieopties
Embedding 0,6B, 4B, 8B Top MTEB scores, flexibel, efficiënt, SOTA Ja (meer dan 100 talen) Q4, Q5, Q6, Q8, enz.
Herordenen 0,6B, 4B, 8B Uitstekend in relevantie van tekstparen, efficiënt, flexibel Ja F16, Q4, Q5, enz.

Prachtige nieuws!

De Qwen3 Embedding en Reranker modellen op Ollama stellen een aanzienlijke sprong voor in multitaalige, multitask tekst- en codeophalingsfunctionaliteiten. Met flexibele implementatieopties, sterke benchmarkprestaties en ondersteuning voor een breed scala aan talen en taken, zijn ze goed geschikt voor zowel onderzoeks- als productieomgevingen.

Modelzoo - vreugde voor het oog nu

Qwen3 Embedding

https://ollama.com/dengcao/Qwen3-Embedding-8B

Qwen3 Embedding 8b

https://ollama.com/dengcao/Qwen3-Embedding-4B/tags

Qwen3 Embedding 4b

https://ollama.com/dengcao/Qwen3-Embedding-0.6B/tags

Qwen3 Embedding 0.6b

Qwen3 Herordenen

https://ollama.com/dengcao/Qwen3-Reranker-8B

Qwen3 Herordenen 8b

dengcao/Qwen3-Reranker-8B:Q3_K_M
dengcao/Qwen3-Reranker-8B:Q5_K_M

https://ollama.com/dengcao/Qwen3-Reranker-4B/tags

dengcao/Qwen3-Reranker-4B:Q5_K_M

Qwen3-Reranker-4B

https://ollama.com/dengcao/Qwen3-Reranker-0.6B/tags

Qwen3-Reranker-0.6B

Leuk!