Boomer 634m
B
Boomer 634m
budecosystemによって開発
boomer-634mは6.34億のパラメータを持つ大規模言語モデルで、120億トークンのカスタム合成データセットを使用してゼロから事前学習されています。
ダウンロード数 74
リリース時間 : 4/9/2024
モデル概要
このモデルは、オープンソースコミュニティにおける大規模言語モデルの利用を普及させ、人工知能の発展を促進することを目的としています。
モデル特徴
大規模事前学習
120億トークンのカスタム合成データセットを使用した事前学習
オープンソース普及
オープンソースコミュニティに使いやすい大規模言語モデルを提供することを目指しています
マルチベンチマークテスト
MMLU、ARC、Hellaswagなどの複数のベンチマークテストで評価されています
モデル能力
テキスト生成
質問応答システム
知識推論
使用事例
教育
科学知識質問応答
自然科学に関する質問に回答します。例えば、空が青い理由を説明します
研究
論理推論テスト
論理的推論能力の評価に使用されます
logiqaベンチマークテストで28.42点を獲得
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98