# 学術文献処理

PP DocLayout L
Apache-2.0
PP-DocLayout-Lは高精度の文書レイアウト領域定位モデルで、RT-DETR-Lアーキテクチャに基づいており、23種類の一般的な文書レイアウトクラスの検出をサポートします。
文字認識 複数言語対応
P
PaddlePaddle
285
0
Olmocr 7B Faithful
Apache-2.0
olmOCR-7B-0225-previewをファインチューニングしたバージョンで、文書内の全ての情報(ヘッダー・フッター内容を含む)を完全に抽出することに特化しています。
大規模言語モデル Transformers 英語
O
tngtech
201
8
Flan T5 Titlegen Springer
MIT
google/flan-t5-baseを微調整したモデルで、科学的な要約を簡潔なタイトルに凝縮する抽象的な要約生成タスクに特化しています。
テキスト生成 Transformers 英語
F
tiam4tt
236
0
Olmocr 7B 0225 Preview
Apache-2.0
Qwen2-VL-7B-InstructをファインチューニングしたドキュメントOCRモデルで、多言語ドキュメント認識とメタデータ抽出をサポート
文字認識 Transformers 英語
O
FriendliAI
322
1
Qwen2.5 14B CIC ACLARC
Apache-2.0
Qwen 2.5 14B Instructをファインチューニングした引用意図分類モデルで、科学出版物における引用意図分類に特化しています。
テキスト分類 Transformers 英語
Q
sknow-lab
24
2
Camembertav2 Base
MIT
CamemBERTav2は2750億のフランス語テキストトークンで事前学習されたフランス語言語モデルで、DebertaV2アーキテクチャを採用し、複数のフランス語NLPタスクで優れた性能を発揮します。
大規模言語モデル Transformers フランス語
C
almanach
2,972
19
Longcite Llama3.1 8b
LongCite-llama3.1-8bはMeta-Llama-3.1-8Bをベースに訓練されたモデルで、長文脈質問応答と細粒度な引用生成に特化し、最大128Kトークンのコンテキストウィンドウをサポートします。
大規模言語モデル Transformers 複数言語対応
L
THUDM
4,469
30
Gte Qwen2 7B Instruct
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の大規模言語モデルで、文類似度計算とテキスト埋め込みタスクに特化しています。
大規模言語モデル Transformers
G
Alibaba-NLP
169.82k
398
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 は英語の文章変換モデルで、文章類似度タスクに特化しており、複数のテキスト埋め込みベンチマークで優れた性能を発揮します。
テキスト埋め込み Transformers 複数言語対応
G
Alibaba-NLP
1.5M
63
Sci Rus Tiny
MIT
SciRus-tinyはロシア語と英語の科学テキスト埋め込みベクトルを取得するための小型モデルで、eLibraryデータでトレーニングされ、対照学習技術を採用しています。
テキスト埋め込み Transformers 複数言語対応
S
mlsa-iai-msu-lab
369
12
Propositionizer Wiki Flan T5 Large
Apache-2.0
このモデルはFlan-T5-Largeベースの命題分割モデルで、テキスト内容を独立した命題ユニットに分解します。
大規模言語モデル Transformers
P
chentong00
892
45
Led Large Book Summary Continued
Bsd-3-clause
これはLEDアーキテクチャに基づく大型書籍要約生成モデルで、特に長文書要約タスクや書籍内容の要約生成に特化しています。
テキスト生成 Transformers 複数言語対応
L
pszemraj
92
2
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
Long-T5アーキテクチャに基づく大規模要約生成モデルで、書籍や長文書の要約タスクに特化して最適化されています
テキスト生成 Transformers
L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
T5アーキテクチャを最適化した長文要約生成モデルで、最大16384トークンの入力を処理可能。書籍要約タスクで優れた性能を発揮します。
テキスト生成 Transformers
L
pszemraj
109
4
S Scibert Snli Multinli Stsb
sentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers
S
pritamdeka
891
4
Camembert Base Fquad
Gpl-3.0
CamemBERT-baseをベースにしたフランス語の質問応答モデルで、FQuADデータセットで微調整され、フランス語の質問応答タスクに適しています。
質問応答システム Transformers フランス語
C
illuin
854
7
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase