Yi 1.5 34B Chat 16K
Yi-1.5 は Yi モデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れた性能を発揮します。
ダウンロード数 807
リリース時間 : 5/15/2024
モデル概要
Yi-1.5 は Yi モデルのアップグレード版で、継続的な事前学習とファインチューニングにより、プログラミング、数学、推論、指示追従能力を向上させつつ、優れた言語理解、常識推論、読解能力を維持しています。
モデル特徴
強化されたプログラミング能力
Yiモデルと比較して、コード生成と理解において大幅な向上が見られる
数学推論能力
特別に最適化されており、複雑な数学問題を処理できる
長文脈サポート
4K、16K、32Kの3種類の文脈長バージョンを提供
複数サイズ選択
6B、9B、34Bの3種類のパラメータ規模のモデルを提供
モデル能力
テキスト生成
対話インタラクション
コード生成
数学推論
指示追従
言語理解
常識推論
読解
使用事例
プログラミング支援
コード生成
自然言語の記述に基づいてコードを生成
高品質なプログラミングコードを生成できる
コード解説
複雑なコードの機能を説明
コードのロジックを正確に理解し説明できる
教育
数学問題解答
複雑な数学問題を解決
高等数学や論理推論問題を処理できる
インテリジェントアシスタント
対話システム
インテリジェントチャットボットを構築
自然で流暢なマルチターン対話が可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98