P

Polka 1.1b

eryk-mazusによって開発
polka-1.1bはTinyLlama-1.1Bモデルを基に、57億のポーランド語トークンで追加事前学習を行ったバイリンガル(ポーランド語と英語)テキスト生成モデルです。
ダウンロード数 174
リリース時間 : 1/6/2024

モデル概要

このモデルはTinyLlamaのトークナイザー語彙を43,882トークンに拡張し、ポーランド語テキスト生成の効率を向上させました。主にテキスト生成タスクに使用され、ポーランド語コンテンツ作成に特に適しています。

モデル特徴

高効率ポーランド語生成
トークナイザー語彙の拡張と専門的なトレーニングにより、ポーランド語テキスト生成の品質を大幅に向上
バイリンガルサポート
ポーランド語と英語の両方をサポートし、バイリンガルアプリケーションに適しています
軽量アーキテクチャ
わずか1.1Bパラメータ規模で、性能を維持しながら計算リソース要件を低減

モデル能力

ポーランド語テキスト生成
英語テキスト生成
バイリンガルテキスト継続

使用事例

コンテンツ作成
ポーランド語記事継続
冒頭段落に基づいて一貫性のあるポーランド語記事コンテンツを自動生成
生成されたコンテンツは文脈的に一貫し、ポーランド語文法規則に準拠
教育アプリケーション
ポーランド語学習支援
ポーランド語学習教材と練習テキストを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase