Gemma 3 4B It Qat GGUF
Googleが開発したGemma 3 4B ITモデルは、マルチモーダル入力と長文コンテキスト処理をサポートし、テキスト生成や画像理解タスクに適しています。
画像生成テキスト
G
lmstudio-community
46.55k
10
EEVE Korean Instruct 10.8B V1.0 Gguf
Apache-2.0
EEVE-Korean-Instruct-10.8B-v1.0は、韓国語コマンドファインチューニングされた大規模言語モデルで、yanolja/EEVE-Korean-10.8B-v1.0ベースモデルを基に開発され、韓国語の理解と生成タスクに特化しています。
大規模言語モデル
E
teddylee777
626
21
Tweety 7b Dutch V24a
Apache-2.0
Tweety-7b-dutchはオランダ語に特化したベース大規模言語モデルで、mistralアーキテクチャを基に、オランダ語トークナイザーを使用してオランダ語テキスト処理能力を最適化しています。
大規模言語モデル
Transformers その他

T
Tweeties
1,568
13
Kanarya 750m
Apache-2.0
カナリア-750Mは、事前学習されたトルコ語のGPT - J 750Mモデルで、トルコデータウェアハウス計画の一部です。
大規模言語モデル その他
K
asafaya
2,749
10
Nekomata 14b
その他
Qwen-14Bを基に日本語と英語の混合データセットで継続事前訓練を行った大規模言語モデルで、日本語タスクの性能が大幅に向上
大規模言語モデル
Transformers 複数言語対応

N
rinna
705
20
Geitje 7B
Apache-2.0
Mistral 7Bを基盤とした大規模オープンソースのオランダ語モデル。100億のオランダ語テキストトークンによる追加トレーニングで、オランダ語理解能力とローカル知識カバレッジを大幅に向上。
大規模言語モデル
Transformers その他

G
Rijgersberg
891
19
Starcoderbase 7b
Openrail
StarCoderBase-7Bはパラメータ規模が70億のコード生成モデルで、80種類以上のプログラミング言語をサポートし、コード補完と生成タスクに特化しています。
大規模言語モデル
Transformers その他

S
bigcode
2,128
33
Mpt 7b 8k Instruct
Apache-2.0
MPT-7B-Instruct-8kは、長文形式の指令に従うためのモデルで、特に長い文書に対する質問応答や要約に優れています。
大規模言語モデル
Transformers その他

M
mosaicml
2,513
27
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
Long-T5アーキテクチャに基づく大規模要約生成モデルで、書籍や長文書の要約タスクに特化して最適化されています
テキスト生成
Transformers

L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
T5アーキテクチャを最適化した長文要約生成モデルで、最大16384トークンの入力を処理可能。書籍要約タスクで優れた性能を発揮します。
テキスト生成
Transformers

L
pszemraj
109
4
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
Long-T5アーキテクチャに基づく書籍要約生成モデルで、長文書の処理と高品質な要約生成をサポートします。
テキスト生成
L
pszemraj
24.19k
134
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
Long-T5アーキテクチャに基づく大規模要約生成モデルで、長文書要約タスクに最適化されており、16384トークンのコンテキスト長をサポートします。
テキスト生成
Transformers

L
pszemraj
65
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98