Fortran2cpp
F
Fortran2cpp
Bin12345によって開発
このモデルは主にFortranコードをC++コードに翻訳するために開発され、deepseek-ai/deepseek-coder-33b-instructモデルを基盤とし、カスタマイズされたFortranからC++へのデータセットで微調整されています。
ダウンロード数 26
リリース時間 : 4/16/2024
モデル概要
FortranコードをC++コードに変換するために特別に設計されたモデルで、コード移行や近代化シナリオに適しています。
モデル特徴
専門的なコード変換
FortranからC++へのコード変換タスクに特化して最適化されています
大規模モデルに基づく微調整
33Bパラメータのdeepseek-coderモデルを基に微調整されており、強力なコード理解能力を備えています
オープンソースライセンス
Apache 2.0ライセンスを採用しており、商用利用が可能です
モデル能力
Fortranコード解析
C++コード生成
コード構造変換
構文変換
使用事例
コード近代化
レガシーシステムのアップグレード
古いFortranの科学計算コードを現代的なC++実装に変換
コードの保守性と性能の向上
クロスプラットフォーム移植
FortranコードをC++に変換して異なるプラットフォームで実行可能にする
コードの移植性の向上
教育研究
プログラミング言語教育
FortranとC++の構文と構造の違いを展示
学生が両言語の違いを理解するのを助ける
おすすめAIモデル
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
その他
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers 英語

L
Mungert
263
2