Yi 1.5 34B
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れた性能を発揮します
ダウンロード数 404
リリース時間 : 5/11/2024
モデル概要
Yi-1.5はYiモデルのアップグレード版で、5000億トークンの高品質コーパスによる継続的な事前学習と300万件の多様なファインチューニングサンプルの最適化により、プログラミング、数学、推論、指示追従能力が大幅に向上し、優れた言語理解、常識推論、読解能力を維持しています。
モデル特徴
強化されたプログラミング能力
前世代モデルと比較し、コード生成と理解において顕著な向上が見られます
数学推論の最適化
特別なトレーニングにより、数学問題解決能力が強化されました
複数のコンテキスト長サポート
4K/16K/32Kの異なるコンテキスト長のモデルバージョンを提供
高品質なファインチューニング
300万件の多様なファインチューニングサンプルに基づく最適化
モデル能力
テキスト生成
対話インタラクション
コード生成
数学問題解決
論理的推論
指示理解と実行
言語理解
常識推論
読解
使用事例
プログラミング支援
コード生成
自然言語の記述に基づいてコードスニペットを生成
HumanEvalベンチマークで優れた成績を収めています
コード解説
複雑なコードの機能とロジックを説明
教育
数学問題解答
様々な数学問題を解決し詳細なステップを提供
GSM8Kなどの数学ベンチマークで良好な成績
学習指導
複雑な概念を説明し学習アドバイスを提供
インテリジェントアシスタント
日常的な質問応答
様々な知識や常識的な質問に回答
タスクプランニング
ユーザーが複雑なタスクを計画・分解するのを支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98