O

Olmo 2 0325 32B Pre GGUF

deltanymによって開発
OLMo-2-0325-32BはAllenAIによって開発された大規模言語モデルで、320億のパラメータを持ち、様々なテキスト生成タスクに適しています。
ダウンロード数 147
リリース時間 : 3/15/2025

モデル概要

OLMo-2-0325-32BはTransformerアーキテクチャに基づく大規模言語モデルで、主にテキスト生成タスクに使用され、様々な自然言語処理アプリケーションをサポートします。

モデル特徴

大規模パラメータ
320億のパラメータを持ち、強力なテキスト生成と理解能力を備えています。
オープンソースライセンス
Apache-2.0ライセンスを採用しており、商業および研究用途に利用可能です。
事前学習モデル
大規模な事前学習を経ており、様々なテキスト生成タスクに直接使用できます。

モデル能力

テキスト生成
自然言語理解
対話生成

使用事例

自然言語処理
テキスト要約
長文の簡潔な要約を生成します。
対話システム
インテリジェントなチャットボットの構築に使用されます。
コンテンツ作成
記事生成
プロンプトに基づいて一貫性のある記事や段落を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase