Dictalm2.0
DictaLM-2.0は70億パラメータの事前学習済み生成テキストモデルで、ヘブライ語に最適化され、Mistral-7Bアーキテクチャを基に改良
大規模言語モデル
Transformers Supports Multiple LanguagesOpen Source License:Apache-2.0#ヘブライ語最適化#多言語生成#低トークン圧縮率

Downloads 24.86k
Release Time : 4/10/2024
Model Overview
ヘブライ語に特化して最適化された生成型大規模言語モデル。トークナイザーの拡張とバイリンガルトレーニングによりヘブライ語処理能力を強化
Model Features
ヘブライ語専用トークナイザー
1000個のヘブライ語トークンを追加、圧縮率を5.78トークン/語から2.76トークン/語に改善
バイリンガル事前学習
1900億トークンのデータで訓練(50%ヘブライ語+50%英語)
量子化サポート
4ビット量子化のGPTQとAWQバージョンを提供、ハードウェア要件を低減
Model Capabilities
ヘブライ語テキスト生成
英語テキスト生成
時制変換
言語理解
Use Cases
言語学習
動詞の時制変換
ヘブライ語動詞の時制変換を自動的に完了
例では過去形と未来形の正確な変換を展示
コンテンツ生成
ヘブライ語コンテンツ作成
ヘブライ語文法に準拠した様々なテキストコンテンツを生成
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98