# 8192長文コンテキスト

Scitopicnomicembed
Apache-2.0
nomic-ai/nomic-embed-text-v1.5をファインチューニングした文変換モデルで、科学文献の主題類似性タスクに最適化
テキスト埋め込み 英語
S
Corran
114
1
Gte Reranker Modernbert Base
Apache-2.0
ModernBERT事前学習アーキテクチャに基づく英語テキスト並べ替えモデルで、AlibabaのTongyi Labによって開発され、8192トークンの長文処理をサポートします。
テキスト埋め込み Transformers 英語
G
Alibaba-NLP
17.69k
56
Modernbert Large Squad2 V0.1
Apache-2.0
ModernBERT-largeをSQuAD 2.0データセットでファインチューニングした質問応答モデルで、長文コンテキスト処理をサポート
質問応答システム Transformers
M
Praise2112
19
2
Mmed Llama 3 8B
MMed-Llama 3はLlama 3アーキテクチャを基にした多言語医療基盤モデルで、80億のパラメータを持ち、MMedCコーパスで追加の事前学習を行い、医学領域の知識を強化しています。
大規模言語モデル Transformers 複数言語対応
M
Henrychur
1,763
25
Meltemi 7B Instruct V1
Apache-2.0
Meltemi-7B-Instruct-v1はMistral-7Bアーキテクチャに基づくギリシャ語命令ファインチューニング大規模言語モデルで、8192トークンのコンテキスト長をサポートし、ギリシャ語タスクに最適化されています
大規模言語モデル Transformers 複数言語対応
M
ilsp
408
35
Starcoder Gpteacher Code Instruct
Openrail
StarCoderモデルをベースに、GPTeacherコード生成データセットで微調整を行い、コード生成と説明能力を最適化
大規模言語モデル Transformers
S
GeorgiaTechResearchInstitute
122
81
Starcoderbase
Openrail
StarCoderBaseは155億パラメータの大規模コード生成モデルで、80以上のプログラミング言語で訓練されており、コード補完と生成タスクをサポートします。
大規模言語モデル Transformers その他
S
bigcode
3,216
404
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase