D

Dots.llm1.inst

Developed by rednote-hilab
dots.llm1は大規模なMoEモデルで、総パラメータ1420億のうち140億のパラメータを活性化し、性能は最先端のモデルに匹敵します。
Downloads 440
Release Time : 5/14/2025

Model Overview

dots.llm1はオープンソースの大規模MoEモデルで、効率的なデータ処理パイプラインと高性能な推論能力を備え、英語と中国語をサポートします。

Model Features

効率的なデータ処理
三階段のデータ処理フレームワークを採用し、大規模、高品質、多様な事前学習データを生成します。
合成データを用いない事前学習
基礎モデルの事前学習には1.12兆の高品質な非合成トークンを使用しました。
高性能とコスト効率
推論時には140億のパラメータのみを活性化し、包括的な能力と高い計算効率を兼ね備えています。
革新的なインフラストラクチャ
交差1F1Bパイプラインスケジューリングと効率的なグループGEMM実装に基づく革新的なMoE全対全通信と計算オーバーラップ方式を導入します。
オープンなモデル動態
1兆トークンごとの学習の中間モデルチェックポイントを公開し、大規模言語モデルの学習動態の研究を容易にします。

Model Capabilities

テキスト生成
対話システム
コード生成

Use Cases

自然言語処理
テキスト補完
一貫したテキスト補完を生成するために使用され、執筆支援、コンテンツ生成などのシナリオに適しています。
対話システム
スマートな対話システムを構築するために使用され、自然で流れる対話体験を提供します。
プログラミング支援
コード生成
コード断片を生成するために使用され、例えばクイックソートアルゴリズムの実装などです。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase