Yi 1.5 34B Chat
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
ダウンロード数 70.62k
リリース時間 : 5/10/2024
モデル概要
Yi-1.5はYiモデルを基にさらに事前学習を重ねたアップグレード版で、5000億トークンの高品質コーパスと300万件の多様な微調整サンプルを最適化し、複数の分野で優れた性能を発揮します。
モデル特徴
強化されたプログラミング能力
前世代モデルと比較し、コード生成と理解において大幅な向上が見られる
最適化された数学的推論
数学的問題解決能力を特別に最適化
長文コンテキスト対応
4K/16K/32Kの異なる長さのコンテキストウィンドウをサポート
複数のサイズ選択肢
6B/9B/34Bの異なるパラメータ規模のモデルバージョンを提供
モデル能力
テキスト生成
コード生成
数学的推論
指示追従
言語理解
常識推論
読解力
使用事例
プログラミング支援
コード生成
自然言語の記述に基づいてコードを生成
複数のプログラミング言語のコードスニペットを生成可能
コード解説
複雑なコードの機能を説明
コードのロジックを正確に理解し説明
教育
数学問題解答
様々な数学問題を解決
基礎的な算術から複雑な数学問題まで処理可能
学習支援
様々な学問分野の概念を説明
分かりやすい概念説明を提供
コンテンツ作成
文章作成
プロンプトに基づいて様々な文章を生成
論理的で一貫性のある長文を生成可能
クリエイティブライティング
物語、詩などの創造的コンテンツを生成
想像力豊かなコンテンツを創作可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98