L

Lola V1

dice-researchによって開発
LOLAはスパース混合エキスパート(Mixture-of-Experts)Transformerアーキテクチャに基づき、160以上の言語をサポートする超大规模多言語大規模モデルで、自然言語生成と理解タスクにおいて競争力があります。
ダウンロード数 867
リリース時間 : 4/2/2024

モデル概要

LOLAはオープンソースの多言語大規模モデルで、GPT2スタイルの純粋デコーダーアーキテクチャを採用し、スパース混合エキスパート技術と組み合わせ、160以上の言語のテキスト生成タスクをサポートします。

モデル特徴

多言語サポート
160以上の言語をサポートし、多言語自然言語処理タスクで優れた性能を発揮します
混合エキスパートアーキテクチャ
16のエキスパートからなるスパース混合エキスパート(MoE)アーキテクチャを採用し、効率を維持しながらモデル性能を向上させます
オープンソースで再現可能
完全にオープンソース化されており、研究の再現性を促進し、将来の研究の基礎を築きます
計算効率
エキスパートルーティングメカニズムにより計算リソースの使用を最適化し、各トークンで一部のパラメータのみを活性化します

モデル能力

多言語テキスト生成
因果言語モデリング
自然言語理解

使用事例

テキスト生成
多言語テキスト補完
与えられたテキストの断片から一貫性のある続きを生成します
例:入力'敏捷な茶色の狐'、出力'敏捷な茶色の狐は怠け者の犬の上を飛び越えた。'
言語研究
クロスランゲージパターン分析
異なる言語間の暗黙的な言語系統パターンを研究します
モデルはエキスパートルーティングメカニズムがどのように暗黙的な言語系統パターンを利用するかを明らかにします
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase