Qwen3 Embedding & Reranker Modeller på Ollama: State-of-the-Art Prestanda

Nya fantastiska LLMs tillgängliga i Ollama

Sidinnehåll

Modellerna för Qwen3 Embedding och Reranker (https://www.glukhov.org/sv/post/2025/06/qwen3-embedding-qwen3-reranker-on-ollama/ “Qwen3 Embedding och Reranker modeller på ollama”) är de senaste lanseringarna i Qwen-familjen, specifikt utformade för avancerade textembedding-, återvinning- och omrankningstjänster.

Glädje för ögat Qwen3 Embedding Reranker Context length and embedding dimensions

Qwen3 Embedding och Reranker modeller representerar en betydande framsteg inom flerspråkig naturlig språkbehandling (NLP), med toppmodern prestanda inom textembedding och omrankningstjänster. Dessa modeller, som är en del av Qwen-serien utvecklad av Alibaba, är utformade för att stödja ett brett spektrum av applikationer, från semantisk återvinning till kodsökning. Medan Ollama är en populär öppen källkodplattform för att värd och distribuera stora språkmodeller (LLMs), är integreringen av Qwen3-modeller med Ollama inte explicit detaljerad i den officiella dokumentationen. Modellerna är dock tillgängliga via Hugging Face, GitHub och ModelScope, vilket möjliggör potentiell lokal distribution genom Ollama eller liknande verktyg.

Exempel med dessa modeller

Se exempelkod på Go som använder ollama med dessa modeller:

Översikt över nya Qwen3 Embedding och Reranker modeller på Ollama

Dessa modeller är nu tillgängliga för distribution på Ollama i olika storlekar, vilket ger toppmodern prestanda och flexibilitet för ett brett spektrum av språk- och kodrelaterade applikationer.

Nyckelfunktioner och kapaciteter

  • Modellstorlekar och flexibilitet

    • Tillgängliga i flera storlekar: 0,6B, 4B och 8B parametrar för både embedding- och omrankningstjänster.
    • 8B embedding-modellen rankas för närvarande som nr 1 på MTEB flerspråkiga toppnoteringen (per den 5 juni 2025, med en poäng på 70,58).
    • Stöder ett brett utbud av kvantiseringsalternativ (Q4, Q5, Q8, etc.) för att balansera prestanda, minnesanvändning och hastighet. Q5_K_M rekommenderas för de flesta användare eftersom det bevarar mestadels av modellens prestanda samtidigt som det är resurseffektivt.
  • Arkitektur och träning

    • Byggt på Qwen3-foundation, som utnyttjar både dual-encoder (för embedding) och cross-encoder (för omrankning) arkitekturer.
    • Embedding-modell: Bearbetar enskilda textsegment, extraherar semantiska representationer från den slutliga dolda tillståndet.
    • Reranker-modell: Tar emot textpar (t.ex. fråga och dokument) och ger en relevanspoäng med hjälp av en cross-encoder-metod.
    • Embedding-modellerna använder en tre-stegs träningsparadigm: kontrastiv förträning, övervakad träning med högkvalitativ data och modellfusion för optimal generalisering och anpassningsförmåga.
    • Reranker-modellerna tränas direkt med högkvalitativ märkt data för effektivitet och effektivitet.
  • Flerspråkig och fleruppgiftsstöd

    • Stöder över 100 språk, inklusive programspråk, vilket möjliggör robust flerspråkig, korsspråkig och kodåtervinning.
    • Embedding-modellerna tillåter flexibla vektordefinitioner och användardefinierade instruktioner för att anpassa prestanda till specifika uppgifter eller språk.
  • Prestanda och användningsområden

    • Toppmoderna resultat inom textåtervinning, kodåtervinning, klassificering, klustring och bitextmining.
    • Reranker-modellerna utmärker sig i olika textåtervinningsscenarier och kan smidigt kombineras med embedding-modeller för slutna återvinningstekniker.

Hur man använder på Ollama

Du kan köra dessa modeller på Ollama med kommandon som:

ollama run dengcao/Qwen3-Embedding-8B:Q5_K_M
ollama run dengcao/Qwen3-Reranker-0.6B:F16

Välj den kvantiseringsversion som bäst passar din hårdvara och prestandabehov.


Sammanfattande tabell

Modelltyp Tillgängliga storlekar Nyckelstyrkor Flerspråkigt stöd Kvantiseringsalternativ
Embedding 0,6B, 4B, 8B Topp MTEB-poäng, flexibel, effektiv, SOTA Ja (100+ språk) Q4, Q5, Q6, Q8, etc.
Reranker 0,6B, 4B, 8B Utmärker sig i textparrelevans, effektiv, flexibel Ja F16, Q4, Q5, etc.

Helt underbart nyheter!

Qwen3 Embedding och Reranker modeller på Ollama representerar ett betydande steg framåt inom flerspråkig, fleruppgifts text- och kodåtervinning. Med flexibla distributionsalternativ, starka bänkmätningar och stöd för ett brett utbud av språk och uppgifter är de väl lämpade för både forskning och produktionsmiljöer.

Modellzoo - glädje för ögat nu

Qwen3 Embedding

https://ollama.com/dengcao/Qwen3-Embedding-8B

Qwen3 Embedding 8b

https://ollama.com/dengcao/Qwen3-Embedding-4B/tags

Qwen3 Embedding 4b

https://ollama.com/dengcao/Qwen3-Embedding-0.6B/tags

Qwen3 Embedding 0.6b

Qwen3 Reranker

https://ollama.com/dengcao/Qwen3-Reranker-8B

Qwen3 Reranker 8b

dengcao/Qwen3-Reranker-8B:Q3_K_M
dengcao/Qwen3-Reranker-8B:Q5_K_M

https://ollama.com/dengcao/Qwen3-Reranker-4B/tags

dengcao/Qwen3-Reranker-4B:Q5_K_M

Qwen3-Reranker-4B

https://ollama.com/dengcao/Qwen3-Reranker-0.6B/tags

Qwen3-Reranker-0.6B

Bra!

Användbara länkar