Japanese Reranker Xsmall V2
MIT
这是一个非常小巧且快速的日语重排序模型,适用于提升RAG系统的精度。
文本嵌入 日语
J
hotchpotch
260
1
Fine Tuned Movie Retriever Bge Base En V1.5
Apache-2.0
专为电影和电视剧推荐系统定制的微调句子转换器模型,优化了RAG管道中的高质量向量检索。
文本嵌入
F
JJTsao
540
1
Nomic Embed Code GGUF
Apache-2.0
Nomic代码嵌入模型是一款顶尖的代码检索工具,支持多种编程语言,擅长代码检索任务。
文本嵌入
N
nomic-ai
1,300
4
Chonky Modernbert Large 1
MIT
Chonky是一款能够智能地将文本分割成有意义的语义块的Transformer模型,适用于RAG系统。
序列标注
Transformers 英语

C
mirth
54
2
Fin Mpnet Base
这是一个经过微调的sentence-transformers模型,专为金融文档检索任务优化,同时保持通用性能。
文本嵌入 其他
F
mukaj
131.16k
7
Chonky Modernbert Base 1
MIT
Chonky是一款能智能将文本分割成有意义语义块的Transformer模型,可用于RAG系统。
序列标注
Transformers 英语

C
mirth
221
1
Chonky Distilbert Base Uncased 1
MIT
Chonky是一款能够智能地将文本分割成有意义的语义块的Transformer模型,适用于RAG系统。
序列标注
Transformers 英语

C
mirth
1,486
12
Nomic Embed Multimodal 7b
Apache-2.0
70亿参数的多模态嵌入模型,专精于视觉文档检索任务,在Vidore-v2基准测试中表现卓越
文本生成图像 支持多种语言
N
nomic-ai
741
26
Embedder Collection
德语和英语的多语言嵌入模型,支持8192令牌的上下文长度
文本嵌入 支持多种语言
E
kalle07
6,623
10
Bert Chunker Chinese 2
MIT
基于BertForTokenClassification构建的中文文本分块工具,特别适用于处理非结构化杂乱文本
序列标注 支持多种语言
B
tim1900
41
1
Granite Question Classifier
MIT
基于 IBM Granite 嵌入模型微调的问题分类器,用于区分通用问题和定向问题
文本分类
Transformers 支持多种语言

G
cnmoro
22
2
Bert Chunker 2
Apache-2.0
基于BERT的文本分块器,通过分类器头部预测分块的起始标记,采用滑动窗口技术处理任意长度文档,适用于结构化和非结构化文本。
序列标注
Safetensors 支持多种语言
B
tim1900
81
1
ARA Reranker V1
Apache-2.0
专为阿拉伯语重排序任务设计的模型,能精准处理查询与段落的关系,直接评估问题与文档之间的相似性,输出相关性分数。
文本嵌入
Transformers 阿拉伯语

A
Omartificial-Intelligence-Space
795
3
Pathumma Llm Text 1.0.0
Apache-2.0
PathummaLLM-text-1.0.0-7B 是一个支持泰语、中文和英语的70亿参数大语言模型,基于OpenThaiLLM-Prebuilt进行指令微调,优化了RAG、约束生成和推理任务。
大型语言模型
PyTorch 支持多种语言
P
nectec
2,362
10
Halong Embedding
Apache-2.0
专注于RAG(检索增强生成)和生产效率的越南语文本嵌入模型,基于intfloat/multilingual-e5-base微调
文本嵌入 支持多种语言
H
hiieu
7,651
29
Phi 3 Context Obedient RAG
基于microsoft/Phi-3-mini-128k-instruct优化的模型,专注于提升上下文遵循能力和减少幻觉现象,适用于RAG应用场景。
大型语言模型
Transformers

P
TroyDoesAI
19
28
Finance Embeddings Investopedia
这是FinLang团队为金融应用开发的Investopedia嵌入模型,基于BAAI/bge-base-en-v1.5微调,可将句子和段落映射到768维稠密向量空间,适用于金融领域的语义搜索等任务。
文本嵌入
F
FinLang
21.25k
32
Text2vec Base Chinese Rag
Apache-2.0
专为中文文本语义理解设计的CoSENT框架模型,适用于检索增强生成(RAG)任务
文本嵌入
Transformers

T
Mike0307
46.60k
9
Bce Embedding Base V1
Apache-2.0
BCEmbedding是网易有道研发的双语跨语言嵌入模型库,包含EmbeddingModel(语义向量生成)和RerankerModel(结果精排)两类模型。作为有道检索增强生成(RAG)系统的核心组件,已成功应用于开源项目QAnything及有道速读、有道翻译等产品。
文本嵌入
Transformers 支持多种语言

B
maidalun1020
69.82k
375
Ko Reranker
MIT
基于BAAI/bge-reranker-large针对韩语数据进行微调的Reranker模型,用于提升韩语检索增强生成(RAG)性能
文本嵌入
Transformers 支持多种语言

K
Dongjin-kr
34.08k
59
Loquace 7B Mistral
Apache-2.0
Loquace是一个会说意大利语、经过指令微调的大语言模型,旨在推动AI和LLM在意大利的民主化。
大型语言模型
Transformers 其他

L
cosimoiaia
17
15
Inkbot 13B 8k 0.2
Inkbot是一款专为解析和响应结构化提示而设计的对话式AI模型,支持含上下文和无上下文的动态对话。
大型语言模型
Transformers

I
Tostino
32
68
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98