# 7Bパラメータ

Qwen2.5 Omni 7B GGUF
その他
Qwen2.5-Omni-7B-GGUF は Qwen2.5-Omni-7B モデルの GGUF フォーマット版で、テキスト、音声、画像を含むマルチモーダル入力をサポートします。
大規模言語モデル 英語
Q
ggml-org
319
3
Qwen2.5 Coder 7B NEP Fix
Apache-2.0
Qwen/Qwen2.5-Coder-7Bモデルを基にUnslothとTRLライブラリを使用してトレーニング最適化されたテキスト生成推論モデルで、トレーニング速度が2倍向上
大規模言語モデル Transformers 英語
Q
lurf21
20
1
Nomic Embed Code GGUF
Apache-2.0
Nomicコード埋め込みモデルは、多様なプログラミング言語をサポートするトップクラスのコード検索ツールで、コード検索タスクに優れています。
テキスト埋め込み
N
nomic-ai
1,300
4
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RLは、未知のデータセットからスクラッチでトレーニングされた7Bパラメータ規模の大規模言語モデルで、検索拡張生成(RAG)と強化学習(RL)技術を組み合わせています。
大規模言語モデル Transformers
Q
XXsongLALA
859
7
Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B は deepseek-ai によってリリースされた蒸留版大規模言語モデルで、Qwen-7B アーキテクチャに基づいており、テキスト生成タスクに適しています。
大規模言語モデル Transformers
D
mlx-community
1,045
4
Instancecap Captioner
その他
Qwen2.5-VL-7B-Instructをinstancevidデータセットでファインチューニングした視覚言語モデルで、インスタンスレベルの画像記述生成に特化
画像生成テキスト Transformers
I
AnonMegumi
14
1
Llava Calm2 Siglip
Apache-2.0
llava-calm2-siglip は実験的な視覚言語モデルで、画像に関する質問に日本語と英語で回答できます。
画像生成テキスト Transformers 複数言語対応
L
cyberagent
3,930
25
Hebrew Mistral 7B
Apache-2.0
Mistral-7B-v1.0フレームワークに基づく70億パラメータのオープンソース大規模言語モデル、ヘブライ語と英語の事前学習をサポート
大規模言語モデル Transformers 複数言語対応
H
yam-peleg
5,532
69
Biomistral Instructv0.2 7B DARE
BioMistral-Instructv0.2-7B-DAREは、BioMistral/BioMistral-7BとMistral-7B-Instruct-v0.2をDARE-TIES手法でマージした命令チューニングモデルで、生物医学分野のタスクに特化しています。
大規模言語モデル Transformers
B
rangan2510
23
1
Sqlcoder 7b 2 GGUF
これはdefog/sqlcoder-7b-2モデルのGGUFフォーマット量子化バージョンで、主にSQLコード生成タスクに使用されます。
大規模言語モデル
S
MaziyarPanahi
346
10
Mistral 7B Instruct V0.2 Turkish GGUF
Apache-2.0
これはMistral-7B-Instruct-v0.2をファインチューニングしたトルコ語テキスト生成モデルで、トルコ語と英語をサポートしています。
大規模言語モデル 複数言語対応
M
sayhan
336
9
Malayalam Llama 7b Instruct V0.1
LLaMA-2フレームワークを基に最適化された70億パラメータのバイリンガル(英語/マラヤーラム語)大規模言語モデルで、命令追従タスク向けに設計
大規模言語モデル Transformers 複数言語対応
M
abhinand
363
12
Mini Synatra SFT
Mini_Synatra_SFT は Mini_synatra_7b_02 モデルを基にした韓国語テキスト生成モデルで、ChatML フォーマットの命令インタラクションをサポートしています。
大規模言語モデル Transformers 韓国語
M
maywell
1,851
3
Neural Chat 7b V3 1 Nebula V2 7B
Apache-2.0
このモデルは、Intelのneural-chat-7b-v3-1とPulsarAIのNebula-v2-7B-Loraを統合した大規模言語モデルです。
大規模言語モデル Transformers 英語
N
Weyaxi
454
2
Mini Synatra 7b 02
Mini_synatra_7b_02はMinirecord社がmaywell/Synatra-7B-v0.3-dpoモデルを基にファインチューニングした大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル Transformers
M
Minirecord
1,804
4
Synatra 7B V0.3 RP GGUF
Synatra 7B V0.3 RPはMistralアーキテクチャを基にした7Bパラメータの韓国語大規模言語モデルで、ロールプレイと韓国語テキスト生成タスクに特化しています。
大規模言語モデル 韓国語
S
TheBloke
3,953
14
Zephyr 7b Sft Full
Apache-2.0
Mistral-7Bをultrachat_200kデータセットでファインチューニングした対話モデル
大規模言語モデル Transformers
Z
alignment-handbook
8,567
25
Mistral Ita 7b
Apache-2.0
Mistral-7B-v0.1を基にイタリア語に特化して最適化されたテキスト生成モデルで、効率的な推論と4ビット量子化バージョンをサポート
大規模言語モデル Transformers
M
DeepMount00
3,525
39
Japanese Stablelm Instruct Gamma 7B GGUF
Apache-2.0
Japanese StableLM Instruct Gamma 7BはStability AIによって開発された日本語大規模言語モデルで、Mistralアーキテクチャを基盤としており、日本語の命令理解と生成タスクに特化しています。
大規模言語モデル 日本語
J
TheBloke
1,583
9
Codellama 7b Python Hf
Code LlamaはMetaが開発した70億パラメータのPython専用コード生成モデルで、Llama 2アーキテクチャを基に最適化され、Pythonコードの合成と理解タスクに特化しています
大規模言語モデル Transformers その他
C
codellama
26.36k
141
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase