# 学術研究

Llm Jp 3.1 1.8b
Apache-2.0
LLM-jp-3.1-1.8bは日本国立情報学研究所によって開発された大規模言語モデルで、LLM-jp-3シリーズに基づき、指令事前学習を組み込んで指令遵守能力を強化しています。
大規模言語モデル Transformers 複数言語対応
L
llm-jp
572
1
Llm Jp 3.1 13b Instruct4
Apache-2.0
LLM-jp-3.1-13b-instruct4は日本国立情報学研究所によって開発された大規模言語モデルで、指令事前学習により指令遵守能力が大幅に向上し、日本語や英語などの複数の言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
L
llm-jp
176
7
Llama 3.3 Swallow 70B V0.4
Llama 3.3 Swallowは700億パラメータの大規模言語モデルで、Meta Llama 3.3をベースに構築され、英語能力を維持しながら日本語能力を強化しています。
大規模言語モデル Transformers 複数言語対応
L
tokyotech-llm
1,950
3
Deepseek R1 Distill Qwen 32B Japanese
MIT
CyberAgentがリリースした日本語大規模言語モデル、Qwen-32Bを蒸留して最適化
大規模言語モデル 日本語
D
cyberagent
1,190
250
Llm Jp 3 1.8b Instruct
Apache-2.0
日本国立情報学研究所によって開発された大規模言語モデルで、日本語と英語をサポートし、指令微調整機能を備えています。
大規模言語モデル Transformers 複数言語対応
L
llm-jp
2,759
25
Llava NeXT Video 7B
LLaVA-Next-Videoはオープンソースのマルチモーダル対話ロボットで、大規模言語モデルのファインチューニングにより訓練され、動画とテキストのマルチモーダルインタラクションをサポートします。
テキスト生成ビデオ Transformers
L
lmms-lab
1,146
46
Neural 4 Maths 7b
Apache-2.0
神経4数学-7bは、複数の7BパラメータモデルをLazyMergeKitで統合した数学特化モデルで、数学関連タスクに特化しています。
大規模言語モデル Transformers
N
Kukedlc
22
1
Llava V1.6 Vicuna 13b Gguf
Apache-2.0
LLaVAはTransformerアーキテクチャに基づくオープンソースのマルチモーダルチャットボットで、量子化技術により様々なサイズと品質のバランスを取ったモデルバージョンを提供します。
画像生成テキスト
L
cjpais
630
9
Deepseek Math 7b Instruct
その他
DeepSeekMathは数学分野に特化したモデルで、商用利用をサポートし、MITライセンスに準拠しています。
大規模言語モデル Transformers
D
deepseek-ai
26.24k
124
Llava V1.6 34B Gguf
Apache-2.0
LLaVA 1.6 34Bはオープンソースのマルチモーダルチャットボットモデルで、マルチモーダル命令追従データで大規模言語モデルをファインチューニングして開発されました。画像テキストからテキスト生成タスクをサポートします。
画像生成テキスト
L
cjpais
1,965
40
Llava V1.6 Vicuna 13b
LLaVAはオープンソースのマルチモーダルチャットボットで、マルチモーダル指示追従データを用いて大規模言語モデルの微調整を行っています。
画像生成テキスト Transformers
L
liuhaotian
7,080
56
Llava V1.6 Mistral 7b
Apache-2.0
LLaVAはオープンソースのマルチモーダルチャットボットで、マルチモーダル指示追従データで大規模言語モデルをファインチューニングして訓練されています。
テキスト生成画像 Transformers
L
liuhaotian
27.45k
236
Vinallama 2.7b Chat
VinaLLaMAはLLaMA2アーキテクチャを基にしたベトナム語大規模言語モデルで、ベトナム語のテキスト生成と理解タスクをサポートします。
大規模言語モデル Transformers その他
V
vilm
841
15
Vinallama 7b Chat
VinaLLaMAはLlama2アーキテクチャを基に構築された、ベトナム語に特化して最適化された大規模言語モデルです。
大規模言語モデル Transformers その他
V
vilm
519
25
Pointllm 7B V1.2
これはクリエイティブ・コモンズ表示-非営利4.0国際ライセンスに基づいて公開されたモデルです。詳細はモデルページを参照してください。
大規模言語モデル Transformers
P
RunsenXu
920
3
Liuhaotian Llava V1.5 13b GGUF
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/Vicunaアーキテクチャをベースに、マルチモーダル命令追従データで微調整されています。
テキスト生成画像
L
PsiPi
1,225
36
Discolm 70b
DiscoLM 70bはLaionのLeoLM 70bを基に開発された70Bパラメータの多言語モデルで、追加のドイツ語テキスト事前学習と命令微調整により英語とドイツ語能力が強化されています
大規模言語モデル Transformers 複数言語対応
D
DiscoResearch
857
12
Ko Ocgn Ep1
このモデルはクリエイティブ・コモンズ表示-非営利4.0国際ライセンスに準拠しており、非商用目的の知識共有に適しています。
大規模言語モデル Transformers
K
maywell
1,769
1
Lingowhale 8B
深言科技と清華大学NLP研究所が共同でオープンソース化した中日バイリンガル大規模言語モデル。数兆トークンの高品質データで事前学習され、8Kコンテキストウィンドウ処理能力を備える
大規模言語モデル Transformers 複数言語対応
L
deeplang-ai
98
21
Llava V1.5 7b Lora
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/VicunaモデルをGPT生成のマルチモーダル指示データで微調整してトレーニングされています。
テキスト生成画像 Transformers
L
liuhaotian
413
23
Llava V1.5 13b
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/Vicunaを微調整し視覚能力を統合、画像とテキストのインタラクションをサポートします。
テキスト生成画像 Transformers
L
liuhaotian
98.17k
499
Open Cabrita3b GGUF
Apache-2.0
Open Cabrita 3Bはポルトガル語に最適化されたオープンソースの大規模言語モデルで、LLaMAアーキテクチャを基に、外国語と英語モデルの性能差を縮めることを目的としています。
大規模言語モデル その他
O
lucianosb
352
6
Shikra 7b Delta V1
このモデルはクリエイティブ・コモンズ表示-非営利4.0国際ライセンスの下で公開されており、非商用目的での使用が可能で、原作者の表示が必要です。
大規模言語モデル Transformers
S
shikras
9,819
8
Llama 30b
その他
LLaMA-30bは300億のパラメータを持つ大規模言語モデルで、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
L
huggyllama
2,866
47
Llama 7b
その他
LLaMA-7bはMetaが公開したオープンソースの大規模言語モデルで、パラメータ規模は70億で、自然言語処理タスクに適しています。
大規模言語モデル Transformers
L
huggyllama
102.76k
326
Bert Base Chinese Ner
Gpl-3.0
繁体中国語のtransformersモデルと自然言語処理ツールを提供
シーケンスラベリング 中国語
B
ckiplab
17.95k
117
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase