Tngtech.olmo 2 Instruct Math 32B GGUF
OLMo-2-Instruct-Math-32B は数学タスクに特化した大規模言語モデルで、tngtechによってリリースされました。
大規模言語モデル
T
DevQuasar
272
1
Mistral Small 3.1 24b Instruct 2503 Jackterated GGUF
Apache-2.0
これはMistralアーキテクチャに基づく24Bパラメータ規模の大規模言語モデルで、テキスト生成タスクをサポートし、GGUFフォーマットを採用しています。
大規模言語モデル
M
JackCloudman
74
1
Mistral Small 3.1 24b Instruct 2503 Hf GGUF
これはmrfakename/mistral-small-3.1-24b-instruct-2503-hfモデルに基づくGGUFフォーマットの量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
137.78k
2
Writing Model Qwen 7B
Apache-2.0
Qwen2.5-7B-Instructを微調整したライティング評価専用モデル、12K規模のSFTデータセットで訓練
大規模言語モデル
Transformers

W
AQuarterMile
72
3
Thedrummer Cydonia 24B V2.1 GGUF
その他
Cydonia-24B-v2.1は24Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェア要件に対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
4,417
7
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8BはAllenAIによって開発された大規模言語モデルで、Llamaアーキテクチャを基にしており、80億のパラメータを持ち、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
113
2
Nvidia AceInstruct 7B GGUF
NVIDIA AceInstruct-7Bモデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、コード、数学、汎用分野のタスクに適しています。
大規模言語モデル
N
bartowski
196
3
Smolvlm Instruct
Apache-2.0
HuggingFaceTB/SmolVLM-Instructを基に微調整されたインテリジェントな視覚言語モデルで、UnslothとTRLライブラリを使用してトレーニング速度を最適化
テキスト生成画像
Transformers 英語

S
mjschock
18
2
Llama 3.3 70B Instruct FP8 Dynamic
Llama-3.3-70B-Instruct-FP8-dynamicは最適化された大規模言語モデルで、活性化関数と重みをFP8データ型に量子化することで、GPUメモリの必要量を削減し、計算スループットを向上させ、多言語の商用および研究用途をサポートします。
大規模言語モデル
Transformers 複数言語対応

L
RedHatAI
6,060
6
Solar Pro Preview Instruct GGUF
このプロジェクトは、upstage/solar-pro-preview-instructモデルのGGUF形式のファイルを提供し、テキスト生成タスクに適しています。
大規模言語モデル
S
MaziyarPanahi
196.59k
26
Llama 3 8B Instruct
Llama-3-8Bを基に北欧言語向けに最適化された命令微調整モデルで、スウェーデン語、デンマーク語、ノルウェー語をサポート
大規模言語モデル
Transformers その他

L
AI-Sweden-Models
570
12
Llama 3 8B SFR Iterative DPO R
Llama-3-8Bベースの命令最適化モデルで、反復型DPO強化学習トレーニングを採用し、複数のベンチマークテストで同規模および一部の大規模モデルを上回る
大規模言語モデル
Transformers

L
Salesforce
55
78
Mistral 7B OpenOrca Oasst Top1 2023 08 25 V3 Mistral 7B Instruct V0.1
Apache-2.0
これはMistral-7Bアーキテクチャに基づく融合モデルで、Mistral-7B-InstructとOpenOrca-oasst_top1の2つのモデルの利点を組み合わせ、多言語テキスト生成タスクに特化しています。
大規模言語モデル
Transformers 複数言語対応

M
MaziyarPanahi
44
1
Mamba 2.8b Instruct Openhermes
これはOpenHermesデータセットで微調整された28億パラメータのMAMBAモデルで、新しい状態空間アーキテクチャを採用し、テキスト生成タスクに優れています。
大規模言語モデル
Transformers 英語

M
clibrain
202
72
Pivot 0.1 Evil A
PiVoT-0.1-earlyはMistral 7Bを微調整したモデルで、テキスト生成タスクに特化しており、さまざまな実験ニーズに対応するための異なるバリアントバージョンがあります。
大規模言語モデル
Transformers 複数言語対応

P
maywell
478
46
H2ogpt Gm Oasst1 En 2048 Open Llama 7b Preview 700bt
Apache-2.0
OpenLlama 7B事前学習モデルを微調整した大規模言語モデルで、OpenAssistantデータセットで訓練され、英語テキスト生成タスクをサポート
大規模言語モデル
Transformers 英語

H
h2oai
58
4
Lamini T5 738M
LaMini-T5-738Mはt5-largeをLaMini-instructionデータセットで微調整した命令微調整モデルで、パラメータ数は738M、LaMini-LMシリーズモデルの1つです。
大規模言語モデル
Transformers 英語

L
MBZUAI
2,966
49
Alpaca 7b
このリポジトリには、スタンフォードAlpacaデータセットで内部調整されたLLaMA-7bモデルが含まれており、主に機械翻訳研究に使用されます。
大規模言語モデル
Transformers

A
wxjiao
387
12
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98