Byt5 Large
ByT5はGoogleのT5の形態素解析器なしのバージョンで、UTF - 8バイトシーケンスを直接処理し、多言語処理をサポートし、ノイズテキストに対してより強いロバスト性を持ちます。
ダウンロード数 29.76k
リリース時間 : 3/2/2022
モデル概要
ByT5はT5アーキテクチャに基づく形態素解析器なしの事前学習モデルで、元のUTF - 8バイトシーケンスを直接処理し、形態素解析器なしで使用できます。このモデルはmC4多言語データセットで事前学習されており、ノイズテキストと多言語タスクの処理に特に適しています。
モデル特徴
形態素解析器なしの設計
元のUTF - 8バイトシーケンスを直接処理し、形態素解析器が不要で、前処理の流れを簡素化します
多言語対応
100種以上の言語の処理をサポートし、多くの低リソース言語も含まれます
ノイズに対するロバスト性
ノイズテキスト(誤字、非標準形式など)に対してより強い処理能力を持ちます
統一アーキテクチャ
標準のTransformerアーキテクチャを使用し、バイトシーケンスを処理するために最小限の変更で済みます
モデル能力
多言語テキスト生成
機械翻訳
テキスト要約
ノイズテキスト処理
使用事例
自然言語処理
多言語機械翻訳
異なる言語間での翻訳を行い、特に非標準またはノイズテキストの処理が可能
TweetQAなどのノイズテキストデータセットで、形態素解析モデルよりも優れた性能を発揮します
テキスト生成
首尾一貫した多言語テキストを生成します
ソーシャルメディア分析
ソーシャルメディアテキスト処理
誤字、略語、非標準形式を含むソーシャルメディアテキストを処理します
ノイズテキストに対してより強いロバスト性を持ちます
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98