Scitopicnomicembed
Apache-2.0
nomic-ai/nomic-embed-text-v1.5をファインチューニングした文変換モデルで、科学文献の主題類似性タスクに最適化
テキスト埋め込み 英語
S
Corran
114
1
Gte Reranker Modernbert Base
Apache-2.0
ModernBERT事前学習アーキテクチャに基づく英語テキスト並べ替えモデルで、AlibabaのTongyi Labによって開発され、8192トークンの長文処理をサポートします。
テキスト埋め込み
Transformers 英語

G
Alibaba-NLP
17.69k
56
Modernbert Large Squad2 V0.1
Apache-2.0
ModernBERT-largeをSQuAD 2.0データセットでファインチューニングした質問応答モデルで、長文コンテキスト処理をサポート
質問応答システム
Transformers

M
Praise2112
19
2
Mmed Llama 3 8B
MMed-Llama 3はLlama 3アーキテクチャを基にした多言語医療基盤モデルで、80億のパラメータを持ち、MMedCコーパスで追加の事前学習を行い、医学領域の知識を強化しています。
大規模言語モデル
Transformers 複数言語対応

M
Henrychur
1,763
25
Meltemi 7B Instruct V1
Apache-2.0
Meltemi-7B-Instruct-v1はMistral-7Bアーキテクチャに基づくギリシャ語命令ファインチューニング大規模言語モデルで、8192トークンのコンテキスト長をサポートし、ギリシャ語タスクに最適化されています
大規模言語モデル
Transformers 複数言語対応

M
ilsp
408
35
Starcoder Gpteacher Code Instruct
Openrail
StarCoderモデルをベースに、GPTeacherコード生成データセットで微調整を行い、コード生成と説明能力を最適化
大規模言語モデル
Transformers

S
GeorgiaTechResearchInstitute
122
81
Starcoderbase
Openrail
StarCoderBaseは155億パラメータの大規模コード生成モデルで、80以上のプログラミング言語で訓練されており、コード補完と生成タスクをサポートします。
大規模言語モデル
Transformers その他

S
bigcode
3,216
404
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98