Twhin Bert Large
TwHIN-BERTは、70億件のツイートを基に訓練された多言語ツイート言語モデルで、テキスト自己教師付き学習とソーシャルインタラクション目標を組み合わせています。
ダウンロード数 350
リリース時間 : 10/18/2022
モデル概要
TwHIN-BERTは、新しい多言語ツイート言語モデルで、テキスト自己教師付き学習だけでなく、Twitterの異種情報ネットワーク内のソーシャルインタラクションによって強化されています。様々なNLPと推薦タスクに適しています。
モデル特徴
多言語サポート
100種以上の言語をサポートし、70億件の多言語ツイートを基に訓練されています。
ソーシャル強化訓練
テキスト自己教師付き学習だけでなく、Twitterの異種情報ネットワーク内のソーシャルインタラクション目標を組み合わせています。
二重の応用優位性
意味理解タスクとソーシャル推薦タスクの両方で卓越した性能を発揮します。
モデル能力
多言語テキスト理解
ソーシャル推薦
テキスト分類
ユーザー行動予測
使用事例
自然言語処理
多言語テキスト分類
多言語ツイートの感情分析やトピック分類を行います。
意味理解タスクで同類のモデルを上回ります。
ソーシャル推薦
ユーザー - ツイートインタラクション予測
ユーザーが好きになるか、インタラクションする可能性のあるツイート内容を予測します。
ソーシャル推薦タスクで卓越した性能を発揮します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98