Plamo 2 1b
P
Plamo 2 1b
Developed by pfnet
PLaMo 2 1BはPreferred Elements社が開発した10億パラメータのモデルで、英語と日本語のデータセットで事前学習され、Mambaとスライディングウィンドウアテンション機構を組み合わせたハイブリッドアーキテクチャを採用しています。
大規模言語モデル
Transformers Supports Multiple LanguagesOpen Source License:Apache-2.0#日英バイリンガル生成#ハイブリッドアーキテクチャMamba2#兆規模の事前学習

Downloads 1,051
Release Time : 2/5/2025
Model Overview
PLaMo 2 1Bは英語と日本語で事前学習された10億パラメータのモデルで、Sambaに似たハイブリッドアーキテクチャを採用し、選択的状態空間モデルとスライディングウィンドウアテンション機構を組み合わせており、テキスト生成タスクに適しています。
Model Features
ハイブリッドアーキテクチャ設計
Mamba2の選択的状態空間モデルとスライディングウィンドウアテンション機構を組み合わせ、効率と性能を向上させています。
多言語サポート
英語と日本語のテキスト生成をサポートし、バイリンガルシナリオに適しています。
トレーニング安定性の最適化
正規化層を追加してトレーニングの安定性を向上させ、Mamba2コアを使用して計算効率を高めています。
Model Capabilities
テキスト生成
多言語処理
Use Cases
テキスト生成
英語テキストの続き作成
与えられた英語の冒頭から一貫性のある続きのテキストを生成します。
日本語テキスト生成
日本語のプロンプトに基づいて関連する内容のテキストを生成します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98