<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
    <channel>
        <title>نوشته های Hezar AI</title>
        <link>https://virgool.io/feed/@hezaraiteam</link>
        <description>Democratizing AI for the Persian community</description>
        <language>fa</language>
        <pubDate>2026-04-15 08:55:29</pubDate>
        <image>
            <url>https://files.virgool.io/upload/users/2935509/avatar/mVwqYx.png?height=120&amp;width=120</url>
            <title>Hezar AI</title>
            <link>https://virgool.io/@hezaraiteam</link>
        </image>

                    <item>
                <title>هزار؛ بزرگ‌ترین کتابخانه متن‌باز هوش مصنوعی برای فارسی</title>
                <link>https://virgool.io/dataio/%D9%87%D8%B2%D8%A7%D8%B1-%DA%A9%D8%AA%D8%A7%D8%A8%D8%AE%D8%A7%D9%86%D9%87-%D8%AC%D8%A7%D9%85%D8%B9-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%A8%D8%B1%D8%A7%DB%8C-%D8%B2%D8%A8%D8%A7%D9%86-%D9%81%D8%A7%D8%B1%D8%B3%DB%8C-llioawzgzfhj</link>
                <description>هزار: کتابخانه جامع هوش مصنوعی برای زبان فارسیآپدیت‌ها:۱۳ آبان ۱۴۰۲ - نسخه اولتقریبا ۴ هفته قبل از انتشار همین نوشته، پست معرفی «هزار» رو روی لینکدین منتشر کردیم و با استقبال غافلگیرکننده کاربران مواجه شدیم. قبلش تصمیم گرفته بودیم که وقتی مخزن «هزار» روی گیت هاب به ۲۰۰ تا استار رسید یه پست معرفی درست درمون روی ویرگول منتشر کنیم و خیال می‌کردیم چند ماهی طول میکشه احتمالا؛ ولی به لطف حمایت‌های جانانه کامیونیتی متن‌باز فارسی، تو همون سه روز اول این عدد رو رد کردیم که شاید در تاریخ اوپن سورس ایران بی سابقه بوده و حقیقتا به تمام کسانی که بی‌دریغ حمایت کردن مدیونیم و با تمام قوا رو به جلو پیش می‌ریم تا بتونیم این حمایت‌ها رو جبران کنیم ??سرتونو درد نیاریم؛ چون این معرفی به اندازه کافی طولانی هست (ولی قول میدیم جذاب باشه!).اول بیاین با جواب دادن به چند تا سوال شروع کنیم.«هزار» دقیقا چیه؟«هزار» یک کتابخونه و فریم‌وورک برای به کارگیری مدل‌ها و الگوریتم‌های مبتنی بر هوش مصنوعی برای زبان فارسیه و برای کاربرد‌های مختلفی از جمله پردازش متن، تصویر و صوت مدل‌های مختلفی داره.از جمله مدل‌هایی که در هزار برای کاربرد‌های مختلف وجود داره میشه به موارد زیر اشاره کرد:دسته بندی متن (تشخیص احساسات، دسته‌بندی موضوعی و …)تولید متن (خلاصه‌سازی، ترجمه و …)مدل زبانینویسه خوان (OCR)توصیف عکس (Image captioning)تبدیل گفتار به متنتشخیص موجودیت معناداربردار تعبیه (Embedding)البته هزار فقط محدود به مدل‌ها نیست بلکه انواع روش‌های پیش پردازش داده مثل توکنایزر، استخراج ویژگی، نرمالایزر و … و همچنین تکنیک‌های مختلف آموزش مدل و پیاده‌سازی‌های آماده اجزای مختلف یک خط لوله آموزش مدل و … رو هم شامل میشه.آدرس گیت‌هاب هزار:‌ https://github.com/hezarai/hezar (استار⭐ یادتون نره?)آدرس مستندات هزار: https://hezarai.github.io/hezarکانال تلگرام هزار:‌ https://t.me/hezaraiاصلا چرا «هزار» ساخته شد؟اگر تو حوزه هوش مصنوعی فعال باشید و تجربه کار با دیتای فارسی رو داشته باشید حتما حس کردید که متاسفانه این حوزه تو ایران کویره (حداقل از نظر منابع متن‌باز و آزاد). منکر این نیستیم که کارهای خیلی خفنی در همین چند سال اخیر در این حوزه انجام شده و در دسترس عموم قرار گرفته اما باز هم میشه گفت که منابع پراکنده هستند و دسترسی و پیدا کردن بعضیاشون خیلی سخته. بعضی از این منابع هم قدیمی هستند و دیگه پشتیبانی نمیشن! از طرفی هم هر منبعی با یک دست خطی نوشته شده و اگر به فرض یه روزی بخواید مدل‌های آماده فلان تسک رو از جاهای مختلف پیدا کنید و همه رو دونه دونه تست کنید کلی دردسر دارید!هزار با این ایده شروع شد که خیلی خوب میشه اگه یه بستری ایجاد بشه که به کمک اون تمام کارهای خفن هوش مصنوعی که برای فارسی‌زبان‌ها انجام شده (یا در آینده انجام میشه) رو به راحتی استفاده کرد یا توسعه داد. این کار از چند جهت مفیده:استفاده از مدل‌های هوش مصنوعی برای تازه کار‌ها خیلی راحت میشهحتی خبره‌های این حوزه هم برای تست کردن مدل‌های مختلف دردسر کمتری دارناین بستر مرجعی میشه برای اینکه به راحتی همه بتونن بهترین مدل‌ها رو برای هر تسکی که میخوان پیدا کننمدلی دارین که منتشر هم کردین ولی اونجور که باید شناخته نشده؟ این کتابخونه کمک میکنه اگر کسی میخواد مدلی که خودش آموزش داده سریع‌تر شناخته بشه با اشتراک گذاشتن اون توی مدلای هزار به این هدف برسه.با وجود همچین کتابخونه‌ای، خیلی بهتر میشه از به روز بودن مدل‌ها و سازگاریشون با پکیجای مختلف در طول زمان مطمئن شد (قطعا براتون پیش اومده که یه کدی پیدا کردین که مال ۵ سال پیشه و استفاده ازش با پکیج‌های به روز مشکله و از طرفی سازنده‌ش خیلی وقته که دیگه ساپورت نمی‌کنه)وقتی یه جامعه بزرگی با کمک هم تمام تمرکزشون رو روی یک بستر واحد بذارن انرژی و هزینه خیلی کمتری صرف میشه، افراد بیشتر از همدیگه یاد میگیرن و در نهایت کل اون حوزه بهتر پیشرفت می‌کنهو در نهایت فرهنگ توسعه متن‌باز نرم‌افزار بیشتر جا می‌افته (یکی از مهم‌ترین عوامل پیشرفت سریع نرم‌افزار نسبت به هر صنعت دیگه‌ای همین قابلیت دسترسی به منابع متن باز هست و اگر بخوایم هوش مصنوعی برای فارسی پیشرفت کنه قطعا مهم‌ترین قدم، رشد جامعه متن باز و اشتراک رایگان دانش در این حوزه‌ست.)چرا اسمش شد «هزار»؟اولین اسمی که تو ذهنمون بود «myriad» بود (صرفا چون اسم باحالی بود) که واحد شمارش ده‌ هزارتاییه. بعدا تغییر داده شد به «chiliad» («کیلیاد») که واحد شمارش هزارتاییه و بعدتر بخاطر اینکه اساس این کتابخونه برای زبان فارسی هست، یه اسم فارسی نیاز داشت که نهایتا به «هزار» ختم شد. از طرفی این اسم، یک کمیت و اندازه نسبتا بزرگی رو نشون میده و تقریبا نمایانگر هدف اصلی این پروژه یعنی گسترش دانش هوش مصنوعی با توسعه و انتشار مدل‌های متعدد هست.خب دیگه وقتشه که بریم سراغ یه دموی کلی از قابلیت‌های هزار.نحوه استفادهبرای یک آموزش جامع از نحوه استفاده از همه جوانب مختلف هزار، به صفحه داکیومنت‌‌ها مراجعه کنید.https://hezarai.github.io/hezar/tutorial/index.htmlنصب هزارهزار یک پکیج پایتون روی PyPi داره و میتونید مثل هر پکیج دیگه‌ای رو پایتون به این شکل نصبش کنید.pip install hezarاگرم احیانا خواستین آخرین نسخه‌ای که داریم توسعه میدیم رو از روی سورس نصب کنید میتونید این شکلی انجامش بدید.pip install git+https://github.com/hezarai/hezar.gitاستفاده از مدل‌های آمادهاولین و مهم‌ترین کاربرد هزار، توی استفاده از مدل‌های از پیش آماده هست. تنها کاری که نیازه اینه که برید داخل مدل هاب هزار روی Hugging Face و مدل مدنظرتون رو انتخاب کنید. نام مدل‌ها بر اساس معماری یا نام مدل اصلی و تسک اون مدل قابل شناسایی هست. یعنی مثلا مدل hezarai/vit-roberta-fa-image-captioning-flickr30k یک مدل برای image captioning هست که با معماری ترکیبی ViT + RoBERTa و روی دیتاست flickr30k آموزش داده شده. حالا چطور میشه مدل‌ها رو استفاده کرد؟ هر مدلی که روی هاب میبینید رو با کد زیر میتونید لود کنید:from hezar.models import Model
model = Model.load(&#039;hezarai/&lt;MODEL PATH&gt;&#039;)این دستور در پس زمینه، وزن‌های مدل و تمام محتویات موردنیاز مثل کانفیگ و فایل‌های پیش‌پردازش و توکنایزر و ... رو لود می‌کنه و مدل رو برای inference آماده می‌کنه و از اینجا میشه با استفاده از دستور &#x60;()predict.&#x60; خروجی مدل روی ورودی مدنظر رو گرفت.from hezar.models import Model

example = [&#039;هزار، کتابخانه‌ای کامل برای به کارگیری آسان هوش مصنوعی&#039;]
model = Model.load(&#039;hezarai/bert-fa-sentiment-dksf&#039;)
outputs = model.predict(example)
print(outputs)خروجی هر مدل نسبت به تسک اون مدل متفاوته. مثلا خروجی مثال بالا که یک مدل دسته بندی هست به این شکله:[[{&#039;label&#039;: &#039;positive&#039;, &#039;score&#039;: 0.812910258769989}]]چند نمونه دیگه برای مثال ببینید:تشخیص موجودیت (NER)from hezar.models import Model

ner_model = Model.load(&#039;hezarai/bert-fa-ner-arman&#039;)  # Named entity recognition
inputs = [&#039;شرکت هوش مصنوعی هزار&#039;]
ner_outputs = ner_model.predict(inputs)
print(f&#039;NER: {ner_outputs}&#039;)NER: [[{&#039;token&#039;: &#039;شرکت&#039;, &#039;label&#039;: &#039;B-org&#039;}, {&#039;token&#039;: &#039;هوش&#039;, &#039;label&#039;: &#039;I-org&#039;}, {&#039;token&#039;: &#039;مصنوعی&#039;, &#039;label&#039;: &#039;I-org&#039;}, {&#039;token&#039;: &#039;هزار&#039;, &#039;label&#039;: &#039;I-org&#039;}]]نقش کلمات (Part of speech tagging)from hezar.models import Model

pos_model = Model.load(&#039;hezarai/bert-fa-pos-lscp-500k&#039;)  # Part-of-speech
inputs = [&#039;شرکت هوش مصنوعی هزار&#039;]
pos_outputs = pos_model.predict(inputs)
print(f&#039;POS: {pos_outputs}&#039;)POS: [[{&#039;token&#039;: &#039;شرکت&#039;, &#039;label&#039;: &#039;Ne&#039;}, {&#039;token&#039;: &#039;هوش&#039;, &#039;label&#039;: &#039;Ne&#039;}, {&#039;token&#039;: &#039;مصنوعی&#039;, &#039;label&#039;: &#039;AJe&#039;}, {&#039;token&#039;: &#039;هزار&#039;, &#039;label&#039;: &#039;NUM&#039;}]]مدل زبانی (پر کردن ماسک)from hezar.models import Model

roberta_mlm = Model.load(&#039;hezarai/roberta-fa-mlm&#039;)
inputs = [&#039;سلام بچه ها حالتون &lt;mask&gt;&#039;]
outputs = roberta_mlm.predict(inputs)
print(outputs)[[{&#039;token&#039;: &#039;چطوره&#039;, &#039;sequence&#039;: &#039;سلام بچه ها حالتون چطوره&#039;, &#039;token_id&#039;: 34505, &#039;score&#039;: 0.2230483442544937}]]تشخیص گفتارfrom hezar.models import Model

whisper = Model.load(&#039;hezarai/whisper-small-fa&#039;)
transcripts = whisper.predict(&#039;examples/assets/speech_example.mp3&#039;)
print(transcripts)[{&#039;text&#039;: &#039;و این تنها محدود به محیط کار نیست&#039;}]نویسه خوان (OCR)from hezar.models import Model

model = Model.load(&#039;hezarai/crnn-base-fa-64x256&#039;)
texts = model.predict(&#039;examples/assets/ocr_example.jpg&#039;)
print(f&#039;CRNN Output: {texts}&#039;)CRNN Output: [{&#039;text&#039;: &#039;چه میشه کرد، باید صبر کنیم&#039;}]پلاک خوان (License Plate Recognition)from hezar.models import Model

model = Model.load(&#039;hezarai/crnn-fa-64x256-license-plate-recognition&#039;)
plate_text = model.predict(&#039;assets/license_plate_ocr_example.jpg&#039;)
print(plate_text)  # Persian text of mixed numbers and characters might not show correctly in the console[{&#039;text&#039;: &#039;۵۷س۷۷۹۷۷&#039;}]توصیف عکس (Image captioning)from hezar.models import Model

model = Model.load(&#039;hezarai/vit-roberta-fa-image-captioning-flickr30k&#039;)
texts = model.predict(&#039;examples/assets/image_captioning_example.jpg&#039;)
print(texts)[{&#039;text&#039;: &#039;سگی با توپ تنیس در دهانش می دود.&#039;}]مدل‌های تعبیه کلمات (Word Embeddings)from hezar.embeddings import Embedding

fasttext = Embedding.load(&#039;hezarai/fasttext-fa-300&#039;)
most_similar = fasttext.most_similar(&#039;هزار&#039;)
print(most_similar)[{&#039;score&#039;: 0.7579, &#039;word&#039;: &#039;میلیون&#039;},
{&#039;score&#039;: 0.6943, &#039;word&#039;: &#039;21هزار&#039;},
{&#039;score&#039;: 0.6861, &#039;word&#039;: &#039;میلیارد&#039;},
{&#039;score&#039;: 0.6825, &#039;word&#039;: &#039;26هزار&#039;},
{&#039;score&#039;: 0.6803, &#039;word&#039;: &#039;٣هزار&#039;}]دیتاست‌هاشاید بشه گفت مهم‌ترین عاملی که باعث میشه برای یک زبان، مدل‌های خوبی تولید بشه، تعداد و تنوع دیتاست‌ها برای اون زبان هست. هزار بستری برای فراهم‌سازی و به کارگیری ساده دیتاست‌ها هم در خودش داره. دیتاست ‌های هزار هم داخل هاگینگ فیس هستن و هر دیتاستی رو می‌تونید هم به فرمت هاگینگ فیس (که دیتاست خام هست) و هم به فرمت هزار (که یک کلاس شسته رفته پایتورچی و آماده استفاده برای آموزش بهتون میده) لود کنید.from hezar.data import Dataset  # For Hezar dataset format
from datasets import load_dataset  # For Hugging Face dataset 

# Hugging Face
dataset = load_dataset(&#039;hezarai/xlsum-fa&#039;)
# Hezar
dataset = Dataset.load(&#039;hezarai/xlsum-fa&#039;)  # Returns a `TextSummarizationDataset` instanceبرای مشاهده همه دیتاست‌ها اینجا کلیک کنید.آموزش مدل‌هاآموزش مدل‌های هزار با استفاده از دیتاست‌های هزار بسیار ساده و سر راسته! در حال حاضر به این شکل می‌تونید یک مدل رو روی یک دیتاست از داخل هاب آموزش بدید.مدلی که می‌خوایم آموزش بدیم (در واقع فاین تون کنیم) مدل DistilBERT برای تسک دسته‌بندی متن (تشخیص احساسات در این مثال) روی دیتاست ترکیبی کامنت‌های دیجی‌کالا و اسنپ‌فود هست. اول، همه چیزایی که نیازه رو ایمپورت می‌کنیم:from hezar.models import DistilBertTextClassification, DistilBertTextClassificationConfig
from hezar.trainer import Trainer, TrainerConfig
from hezar.data import Dataset
from hezar.preprocessors import Preprocessorحالا آدرس دیتاست روی هاب و همینطور مدل پایه‌ای که می‌خوایم فاین-تیونش کنیم رو تعریف می‌کنیم.DATASET_PATH = &#039;hezarai/sentiment-dksf&#039;  # dataset path on the Hub
BASE_MODEL_PATH = &#039;hezarai/distilbert-base-fa&#039;  # used as model backbone weights and tokenizerحالا کلاس دیتاست‌های آموزش و ارزیابی رو لود می‌کنیم که خروجیش از جنس PyTorch Dataset هست.train_dataset = Dataset.load(DATASET_PATH, split=&#039;train&#039;, tokenizer_path=BASE_MODEL_PATH)
eval_dataset = Dataset.load(DATASET_PATH, split=&#039;test&#039;, tokenizer_path=BASE_MODEL_PATH)حالا بریم مدل و پیش‌پردازش‌گر مناسب مدل رو لود کنیم.model = DistilBertTextClassification(
 BertTextClassificationConfig(id2label=train_dataset.config.id2label)
)
preprocessor = Preprocessor.load(BASE_MODEL_PATH)مدلمون از کلاس DistilBertTextClassification هست و داخل کانفیگ هم نیازه که id2label رو تعیین کنیم تا لایه آخر به درستی ساخته بشه که مقدارش رو از دیتاست برمی‌داریم. پیش پردازش‌گر این مدل هم فقط یک توکنایزر هست که درواقع با مدل پایه که دیستیل‌برت هست یکیه.دیتاست و مدل و پیش‌پردازشگر آماده‌ست. الان باید یک کانفیگ برای آموزش تعیین کنیم که تنظیمات آموزش مدل رو مشخص می‌کنه.train_config = TrainerConfig(
    task=&#039;text_classification&#039;,
    device=&#039;cuda&#039;,
    init_weights_from=base_model_path,
    batch_size=8,
    num_epochs=5,
    checkpoints_dir=&#039;checkpoints/&#039;,
    metrics=[&#039;f1&#039;],
)پارامتر‌هایی که تعیین کردیم به این شرح هستن:پارامتر task: این پارامتر اجباریه و به Trainer می‌گه که مدلی که قرار آموزش بدیم برای چه تسکی هست. (اگر این پارامتر رو اشتباه تعیین کنید یک ارور میده و بهتون میگه که چه مقادیری مجاز هستن)پارامتر device: که تعیین کننده اینه که روی کدوم سخت‌افزار برای پردازش‌ها استفاده بشه که اینجا از cuda استفاده می‌کنیم که همون کارت گرافیکمون هست.پارامتر init_weights_from: مقدار این پارامتر باید آدرس مدلی باشه که از روی اون می‌خوایم فاین تیون کنیم.پارامتر batch_size: که نیاز به توضیح نداره :)پارامتر num_epochs: اینم نیاز به توضیح نداره :)پارامتر checkpoints_dir: تمام چکپوینت‌ها که شامل وزن‌های ذخیره شده، فایل‌های دیگه مدل و ... در این آدرس ذخیره می‌شن.پارامتر metrics: یک لیست از معیار‌های ارزیابی مدل هست. این پارامتر باید بر اساس تسکی که مدنظره تعیین بشه.پارامتر‌های دیگه هم قابل تنظیم هستن ولی برای این مثال نیازی بهشون نیست.در مرحل نهایی آبجکت Trainer رو می‌سازیم و آموزش رو انجام می‌دیم. (پارامتر‌های اجباری Trainer مواردی هستند که در این قطعه کد می‌بینید.)trainer = Trainer(
    config=train_config,
    model=model,
    train_dataset=train_dataset,
    eval_dataset=eval_dataset,
    data_collator=train_dataset.data_collator,
    preprocessor=preprocessor,
)
trainer.train()Epoch: 1/5      100%|####################################| 3576/3576 [07:07&lt;00:00,  8.37batch/s, f1=0.732, loss=0.619]
Evaluating...   100%|####################################| 290/290 [00:07&lt;00:00, 38.64batch/s, f1=0.8, loss=0.473]
Epoch: 2/5      100%|####################################| 3576/3576 [07:00&lt;00:00,  8.50batch/s, f1=0.807, loss=0.47]
Evaluating...   100%|####################################| 290/290 [00:07&lt;00:00, 39.87batch/s, f1=0.838, loss=0.419]
Epoch: 3/5      100%|####################################| 3576/3576 [07:01&lt;00:00,  8.48batch/s, f1=0.864, loss=0.348]
Evaluating...   100%|####################################| 290/290 [00:07&lt;00:00, 39.97batch/s, f1=0.875, loss=0.346]
Epoch: 4/5      100%|####################################| 3576/3576 [06:57&lt;00:00,  8.56batch/s, f1=0.919, loss=0.227]
Evaluating...   100%|####################################| 290/290 [00:07&lt;00:00, 38.84batch/s, f1=0.875, loss=0.381]
Epoch: 5/5      100%|####################################| 3576/3576 [07:02&lt;00:00,  8.46batch/s, f1=0.943, loss=0.156]
Evaluating...   100%|####################################| 290/290 [00:07&lt;00:00, 39.71batch/s, f1=0.887, loss=0.446]بعد از هر ایپاک لاگ معیار‌ها هم در Tensorboard و هم در یک فایل csv ذخیره می‌شه.اگر دوست داشتید می‌تونید همه محتویات آموزش شامل کانفیگ‌ها و مدل و پیش‌پردازش‌گر و لاگ‌ها رو به هاب اپلود کنید.trainer.push_to_hub(&#039;&lt;your-hf-username&gt;/distilbert-fa-sentiment-dksf&#039;)چند مرتبه عمیق‌تر«هزار» حقیقتا پروژه بزرگیه و به دلیل اینکه ابعاد بسیار زیادی داره، خیلی خیلی وسواسانه نوشته شده و علاوه بر رعایت اصل سادگی استفاده برای کاربر، برای توسعه دهندگان این فریموورک هم خیلی راحت و سرراسته. معماری «هزار» طوریه که همواره سعی شده روی بهترین ابزار‌های موجود سوار باشه تا هم چرخ اضافی‌ای اختراع نشه و هم استفاده از هر جزئی برای عموم راحت و آشنا باشه. تمام مدل‌های هزار با فریموورک PyTorch ساخته شدن و هر مدلی که تو هزار هست کاملا رفتار یک مدل عادی پایتورچ رو داره. بقیه موارد از جمله دیتاست‌ها، پیش پردازشگر‌ها و ... هم بر پایه ابزار‌هایی هستند که اکثریت باهاش آشنایی دارن. از طرفی سعی شده تا حد امکان از کامپوزیشن توی معماری استفاده نشه تا به راحتی هر کس بتونه یه تیکه از کد رو کپی کنه و هر جور خواست استفاده کنه! برای اطلاعات بیشتر راجع به معماری هزار در لایه‌های پایین‌تر به قسمت Developer Guides مراجعه کنید.اهداف و مسیر آیندهمهم‌ترین هدف هزار دموکراتیزه کردن هوش مصنوعی برای فارسی‌زبانان هست. به شکل جزئی‌تر اهداف هزار عبارتند از:هموارکردن راه برای تازه‌وارد‌ها و علاقه‌مندان هوش مصنوعیمرجعی برای به اشتراک‌گذاری پیشرفته‌ترین مدل‌های هوش مصنوعی برای زبان فارسیسرعت بخشیدن به پیشرفت هوش مصنوعی برای زبان فارسی به واسطه فرهنگ متن باز و اشتراک رایگان دانشتا به اینجای کار، قسمت اعظم توسعه این پروژه متمرکز بر مباحث زیرساختی و معماری این فریموورک بوده و مدل‌هایی که منتشر شده ظرف بازه بسیار کوتاهی آموزش داده شدن. این مدل‌ها بسیار جای پیشرفت دارن و تیم هزار همواره در این جهت تلاش می‌کنه. بعد از استیبل شدن کلی «هزار»، برنامه‌های زیادی برای توسعه مدل‌های بسیار بزرگ‌تر و پیچیده‌تر داریم و در این راه قطعا از هر کمک، حمایت و مشارکتی استقبال ویژه می‌کنیم.مشارکت و حمایتبزرگترین انگیزه تیم هزار برای ادامه، حمایت و مشارکت جامعه توسعه دهندگان فارسیه. مشارکت برای همه افراد آزاد هست و شامل موارد زیر میشه:توسعه فیچر‌های مختلف و قابلیت‌های جدیداضافه‌کردن مدل‌هاآموزش مدل‌هانوشتن داکیومنتدرخواست فیچر یا مدل جدیدگزارش باگ‌هامشارکت در حل باگ‌ها و ایشوهای گیت‌هابتبلیغ و معرفی به دوستان و در سوشال مدیاحمایت مالی و سرمایه‌گذاریارتباط با مااگر پیام یا درخواست تکنیکال دارید راه ارتباطی پیشنهادی ما issue یا discussion زدن روی گیت‌هابه اما اگر دوست دارید شخصا در تماس باشید می‌تونید از طریق ایمیل یا لینکدین هم پیام بدین ?Aryan: arxyzan@gmail.com | linkedin.com/in/aryanshekarlabanPooya: pooyamohammadikazaj@gmail.com | linkedin.com/in/pooya-mohammadi</description>
                <category>Hezar AI</category>
                <author>Hezar AI</author>
                <pubDate>Wed, 08 Nov 2023 10:46:14 +0330</pubDate>
            </item>
            </channel>
</rss>