🚀 推出 Akshara-8B:為印度打造的人工智能 🇮🇳✨
我們自豪地推出 Akshara-8B,這是我們專門為印度多元語言環境打造的前沿 人工智能集群。Akshara 旨在能夠 無縫理解和生成 多種印度語言的文本,讓人工智能更易獲取、更強大,且更貼合我們國家的需求。
🚀 快速開始
Akshara-8B 是 SVECTOR 旗艦大型人工智能模型(Akshara)的 高度優化蒸餾版本。它保留了其母模型的核心智能和多語言能力,同時特別針對 效率、速度和可訪問性 進行了設計。它利用先進的蒸餾技術,在保證輕量級和可擴展性的同時,提供強大的人工智能性能。Akshara-8B 體現了 SVECTOR 為印度帶來前沿人工智能的承諾,確保為 印度的多元語言和應用 提供強大支持。
Akshara 能夠流暢地理解和生成以下語言的內容:
✅ 印地語
✅ 古吉拉特語
✅ 馬拉地語
✅ 泰米爾語
✅ 泰盧固語
✅ 卡納達語
✅ 旁遮普語
✅ 英語
✨ 主要特性
- 🔹 印度製造,服務印度與全球 🇮🇳
- 🔹 針對速度和效率進行優化 ⚡
- 🔹 無縫的多語言處理 🗣️
- 🔹 平衡的準確性和創造性 🎨
- 🔹 輕量級且可擴展,適用於實際應用 🚀
📦 安裝指南
安裝依賴項
pip install transformers torch
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "SVECTOR-CORPORATION/Akshara-8B-Llama-Multilingual-V0.1"
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16).to("cuda")
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
input_text = "भारत की सबसे बड़ी भाषा कौनसी है?"
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")
output = model.generate(**input_ids, max_new_tokens=256)
response = tokenizer.decode(output[0], skip_special_tokens=True)
print(response)
高級用法
messages = [
{"role": "system", "content": "आप Akshara हैं, भारत के लिए बना एक AI, जो हिंदी, गुजराती, मराठी, तमिल, तेलुगु, कन्नड़, पंजाबी और अंग्रेजी में बातचीत कर सकता है।"},
{"role": "user", "content": "नमस्ते! आप क्या कर सकते हैं?"}
]
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt").to("cuda")
outputs = model.generate(input_ids, max_new_tokens=256)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
📚 詳細文檔
通過接納印度的語言多樣性,Akshara 代表著在我國 縮小人工智能差距 的重要一步。無論是 教育、研究、客戶服務、內容創作還是智能自動化,Akshara 都將徹底改變 多語言人工智能交互。
加入我們,共同塑造印度人工智能的未來! 🇮🇳🚀
Akshara
📄 許可證
本項目採用 Apache-2.0 許可證。
🔖 引用
@misc{SVECTOR2025Akshara,
title = {Akshara: A Multilingual AI Model for India},
author = {SVECTOR},
year = {2025},
url = {https://svector.co.in},
note = {Developed by SVECTOR CORPORATION for multilingual AI Model},
}