خبرنامه وکیل سایبری (8 مرداد)

بسمه تعالی

خبرنامه وکیل سایبری

آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.

این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.

08 مرداد 1402




خبر اول:

نوآوری در ایمنی و مقررات هوش مصنوعی

در حوزه هوش مصنوعی (AI)، این سوال مطرح می شود که آیا می توان به شرکت های فناوری جهت خودتنظیمی اعتماد کرد؟ اخیراً هفت شرکت بزرگ هوش مصنوعی در ملاقات با رئیس جمهور جو بایدن تعهدات عمومی خود را نسبت به ایمنی و شفافیت اعلام کردند. علاوه بر این، گوگل، آنتروپیک، مایکروسافت و OpenAI گروهی را تشکیل داده‌اند که به بررسی قابلیت‌های قوی‌تر هوش مصنوعی و ایجاد بهترین شیوه‌ها برای کنترل آن اختصاص دارد.

با این که این تعهدات بیانگر گامی در جهت درست و مناسب می باشد اما سابقه صنعت در پرداختن به اثرات منفی رسانه های اجتماعی، نگرانی هایی را در مورد اثربخشی آنها بدون مداخله نظارتی ایجاد می کند. وقتی در مورد هوش مصنوعی صحبت می‌کنیم، چالش اصلی این است که چگونه یک چارچوب نظارتی و قوانینی ایجاد کنیم که بتواند تعهدات و مسئولیت‌ها را از شرکت‌ها و توسعه‌دهندگان هوش مصنوعی اجرا کند، بدون این که نوآوری‌ها و پیشرفت‌ها در زمینه هوش مصنوعی را مختل کند. همچنین این چارچوب باید قابلیت تطبیق با پیشرفت‌های هوش مصنوعی را داشته باشد و به‌روزرسانی‌های لازم را در این زمینه انجام دهد. به این ترتیب، می‌توان با اطمینان از رشد هوش مصنوعی بهره برد و در عین حال مسائل امنیتی و اخلاقی را نیز به حداقل رساند.

در طی یک جلسه در کاخ سفید، شرکت‌های فناوری متعهد شدند که از ایمنی محصولات خود از طریق آزمایش‌های امنیتی دقیق قبل از انتشار چه در داخل و چه در خارج اطمینان حاصل کنند. آنها همچنین متعهد شدند که اطلاعات مربوط به مدیریت ریسک را در سراسر صنعت و دولت به اشتراک بگذارند. علاوه بر این، آن‌ها اعلام کردند که قصد تسهیل شناسایی آسیب‌پذیری‌ها توسط شخص ثالث در سیستم‌های هوش مصنوعی خود دارند و از "نشان‌گذاری" دیجیتالی استفاده کنند تا کاربران را از محتوای تولیدشده توسط هوش مصنوعی آگاه کنند.

با این که این مراحل نشان دهنده اهداف مثبت می باشد، اما تا حد زیادی با رویه های موجود یا برنامه ریزی شده توسط شرکت ها هماهنگ می باشند. لازم به توضیح می باشد که هیچ وعده صریحی برای افشای داده‌هایی که مدل‌های هوش مصنوعی بر اساس آن‌ها آموزش داده می‌شوند وجود ندارد. البته این موضوع در قوانین آتی مربوط به هوش مصنوعی در اتحادیه اروپا مورد بررسی قرار گرفته است. مایکروسافت پیشنهاد ایجاد یک ثبت‌نام اختیاری برای سیستم‌های هوش مصنوعی با ریسک بالا را اعلام کرده است که می‌تواند به عنوان ارزش افزوده در نظر گرفته شود.

کمیسیون تجارت فدرال با اشاره به نقض احتمالی قوانین مصرف کننده، اعلام کرده است که در صورت عدم انجام تعهدات خود، ممکن است علیه شرکت های فناوری اقدام قانونی کند. با این حال، مبهم بودن این تعهدات ممکن است مراحل قانونی را پیچیده کند. بر اساس پیش‌بینی ها یک فرمان اجرایی از سوی کاخ سفید می‌تواند با تمرکز بر محدود کردن دستیابی به برنامه‌ها و مؤلفه‌های هوش مصنوعی توسط چین و سایر رقبا، اهمیت بیشتری به این تعهدات بدهد.

در نهایت، قانونگذاری ضروری می باشد، اما باید با چالش های مربوط به ماهیت به سرعت در حال تکامل هوش مصنوعی مقابله کند. اتحادیه اروپا با پیشنهاد قانون هوش مصنوعی رویکرد مستقیم تری اتخاذ کرده است، اما نگرانی هایی در مورد تأثیر آن بر رقابت پذیری اتحادیه اروپا و عدم رسیدگی به مسائل مهم مطرح شده است. در مقابل، کنگره آمریکا به توافق دوحزبی و تخصص کافی برای قانون‌گذاری در حوزه هوش مصنوعی نیاز دارد که این امر اعتمادسازی را دشوارتر می کند. رهبر اکثریت سنا یعنی Chuck Schumer قصد دارد در ماه‌های آینده جلسات آموزشی برای سناتورها برگزار کند تا بتوانند مفاهیم هوش مصنوعی را بهبود ببخشند.

مقررات موثر هوش مصنوعی مستلزم همکاری نزدیک با بخش فناوری می باشد. بسیاری از باهوش‌ترین ذهن‌های هوش مصنوعی، که در پیش‌بینی ریسک‌ها مهارت دارند، توسط این شرکت‌ها استخدام می‌شوند. با این حال، مشارکت کارشناسان خارجی برای اطمینان از اینکه قانونگذاران توسط خودی های صنعت فریب نخواهند خورد، بسیار مهم تلقی می شود.

بخش فناوری باید تمایل به تعامل سازنده داشته باشد. پس از واکنش شدید علیه شرکت هایی مانند فیس بوک متا به دلیل جنبه های منفی رسانه های اجتماعی، آنها اکنون برای همکاری با مقامات انگیزه دارند. در واقع، موفق ترین شرکت ها در صنعت هوش مصنوعی شرکت هایی هستند که مسئولیت را در اولویت قرار می دهند.

با توجه به ماهیت دگرگون‌کننده این فناوری، رویکردهای نوآورانه برای تنظیم مقررات به منظور حفظ کنترل بر هوش مصنوعی مورد نیاز می باشد.

منبع خبر : fagenwasanni




خبر دوم:

روش هایی برای دور زدن، قوانین ایمنی چت بات هوش مصنوعی

بر اساس تحقیقات جدید دانشگاه کارنگی ملون (ایالت متحده)، جلوگیری از تولید محتوای مضر چت ربات‌های هوش مصنوعی (AI) چالش‌برانگیزتر از آن چیزی می باشد که قبلا تصور می‌شد. سرویس‌های مشهور هوش مصنوعی مانند ChatGPT و Bard دارای پروتکل‌های ایمنی هستند تا از ایجاد محتوای تعصب‌آمیز، افتراآمیز یا مجرمانه توسط ربات‌ها جلوگیری کنند. ولی، محققان روش‌های جدیدی را برای دور زدن این پروتکل‌های ایمنی کشف کرده‌اند که به نام «jailbreak» شناخته می‌شوند.

تاکنون کاربران به صورت سنتی با انجام حرکات خلاقانه و درخواست پاسخ به سوالات ممنوعه، به روش‌هایی می‌پرداختند که می‌توانست به نقض امنیت بات‌های هوش مصنوعی منجر شود. اکنون، محققان یک نوع جدید از نقض امنیتی را کشف کرده‌اند که با استفاده از کامپیوتر ایجاد می‌شود و الگوهای بی‌نهایتی از نقض را ایجاد می‌کند. این موضوع باعث نگرانی‌هایی در مورد ایمنی استفاده از مدل‌های بات‌های هوش مصنوعی می‌شود، به ویژه زمانی که بات‌ها بیشتر به صورت خودکار و بدون دخالت انسانی عمل می‌کنند.

در این جیلبریک جدید، محققان با اضافه کردن کاراکترهای بی‌معنی به انتهای سوالات که معمولاً شامل سوالات ممنوعه مانند نحوه ساخت بمب هستند، بات هوش مصنوعی را به حذف محدودیت‌های ایمنی خود فریب می‌دهند. این کار باعث می‌شود که بات به طور کامل به این سوالات پاسخ دهد. در شرایط عادی این نوع سوالات ممنوعه، حذف می‌شوند تا از ارائه اطلاعات خطرناک به کاربران جلوگیری شود. این نوع جیلبریک نگرانی‌هایی را در مورد امنیت و استفاده از بات‌های هوش مصنوعی ایجاد می‌کند.

تیم تحقیقاتی نمونه هایی را با استفاده از ChatGPT، یک چت ربات پیشرو در هوش مصنوعی ارائه کرد، از جمله اینکه از ربات پرسید که چگونه هویت یک فرد را سرقت کند، از یک موسسه خیریه دزدی کند و یک پست رسانه اجتماعی ایجاد کند که رفتار خطرناک را ترویج دهد. این نتایج نشان می‌دهند که این جیلبریک جدید تقریباً تمامی بات‌های هوش مصنوعی را در بازار به خطر می‌اندازد و باعث می‌شود که این بات‌ها توانایی دسترسی به محتویات خطرناک یا ممنوعه را به کاربران ارائه دهند، امری که بسیار نگران‌کننده می باشد و نیازمند اقدامات جدی از سوی توسعه‌دهندگان و سازندگان بات‌های هوش مصنوعی است تا از امنیت و اخلاقیات استفاده از این سیستم‌ها اطمینان حاصل شود.

OpenAI، توسعه‌دهنده ChatGPT، در حال حاضر بر روی پیاده‌سازی و بهبود تدابیر امنیتی جهت جلوگیری از چنین حملاتی کار می‌کند. آنها در حال بررسی روش هایی برای تقویت تدابیر امنیتی و افزودن لایه های دفاعی بیشتر می باشند.

چت ربات‌های هوش مصنوعی مانند ChatGPT محبوبیت پیدا کرده‌اند، اما چالش‌هایی مانند استفاده از آن‌ها برای تقلب در مدارس و نگرانی در مورد توانایی‌شان در دروغ‌گویی هم وجود دارد.

در نهایت، باید مکانیسم‌های دفاعی قوی‌تری برای محافظت در برابر دور زدن قوانین ایمنی چت بات هوش مصنوعی در نظر گرفته شود.

منبع خبر : fagenwasanni




خبر سوم:

فناوری ها و استراتژی های نوظهور برای امنیت رسانه های اجتماعی جهانی

آینده امنیت آنلاین موضوعی بسیار مهم در عصر دیجیتال امروزی محسوب می شود. همچنان که جهان به طور فزاینده ای از طریق پلتفرم های رسانه های اجتماعی به هم متصل می شود، نیاز به اقدامات امنیتی قوی هم بیشتر از گذشته احساس می شود.

ظهور رسانه های اجتماعی در نحوه برقراری ارتباط، اشتراک گذاری اطلاعات و تعامل ما با جهان تحول ایجاد کرده است. ولی، این انقلاب دیجیتال روش های جدیدی را هم برای تهدیدات سایبری، مانند نقض داده ها و آزار و اذیت آنلاین و ...، ارائه کرده است. برای مبارزه با این چالش ها، شرکت های فناوری، کارشناسان امنیت سایبری و سیاست گذاران به طور مداوم در حال توسعه راه حل های نوآورانه هستند.

هوش مصنوعی (AI) یکی از این فناوری‌ها می باشد که نقشی اساسی در افزایش ایمنی آنلاین ایفا می‌کند. الگوریتم‌های هوش مصنوعی می‌توانند حجم وسیعی از داده‌ها را برای شناسایی فعالیت‌های مشکوک، شناسایی تهدیدات بالقوه و حتی پیش‌بینی حملات سایبری آتی تجزیه و تحلیل کنند. به عنوان مثال، یادگیری ماشین، می تواند برای شناسایی الگوهایی در رفتار کاربر استفاده شود که ممکن است نشان دهنده نقض امنیتی باشد. این رویکرد پیشگیرانه امکان اقدام فوری را فراهم می کند و آسیب احتمالی ناشی از تهدیدات سایبری را به حداقل می رساند.

فناوری بلاک چین یکی دیگر از راهکار های مناسب برای افزایش امنیت رسانه های اجتماعی می باشد. بلاک چین که بخاطر ماهیت غیرمتمرکز خود مورد توجه می باشد، می تواند یک پلت فرم امن و شفاف برای ذخیره سازی داده ها و تراکنش ها فراهم کند. این فناوری می تواند به جلوگیری از دستکاری داده ها کمک کند و از یکپارچگی اطلاعات کاربر اطمینان حاصل کند. علاوه بر این، استفاده از قراردادهای هوشمند در بلاک چین می‌تواند اجرای سیاست‌های ایمنی آنلاین را خودکار نماید و امنیت را بیشتر افزایش دهد.

علاوه بر این فناوری‌ها، استراتژی‌های جدیدی نیز برای بهبود ایمنی آنلاین در حال توسعه هستند. یکی از این استراتژی ها، مفهوم «حریم خصوصی از طریق طراحی» می باشد. این رویکرد شامل ادغام اقدامات حریم خصوصی و امنیتی در طراحی پلتفرم‌های رسانه‌های اجتماعی می باشد. بدین ترتیب، فرهنگ حفظ حریم خصوصی و امنیت در بین کاربران ترویج می یابد.

یکی دیگر از استراتژی های نوظهور استفاده از احراز هویت چند عاملی (MFA) است. MFA کاربران را ملزم می‌کند تا قبل از دسترسی به حساب‌های خود، از چندین مرحله شناسایی عبور کنند که دسترسی غیرمجاز را برای مجرمان سایبری دشوارتر می‌کند.

آموزش و آگاهی کاربران در این زمینه بسیار مهم تلقی می شود. بسیاری از افراد معتقدند که موثرترین روش برای افزایش ایمنی آنلاین، توانمندسازی کاربران با دانش و ابزارهایی برای محافظت از خودشان می باشد.

منبع خبر : fagenwasanni




خبر چهارم:

نقش قابل توجه هوش تهدید جهانی در مبارزه با حملات سایبری

در عصر دیجیتال، جرایم سایبری به عنوان یک تهدید مهم برای افراد، مشاغل و دولت ها در سراسر جهان محسوب می شود. افشای نقاب از مجرمان سایبری و مبارزه با حملات سایبری یک فرایند پیچیده می باشد که نیازمند یک رویکرد جامع می باشد. یکی از موثرترین استراتژی ها در این مبارزه، استفاده از هوش تهدید جهانی ست.

هوش تهدید جهانی یک جزء حیاتی در نبرد با جرایم سایبری محسوب می شود. این فرایند شامل جمع آوری و تجزیه و تحلیل اطلاعات در مورد تهدیدهای بالقوه یا فعلی می باشد که می تواند به سیستم های دیجیتال آسیب برساند.

این اطلاعات از منابع مختلفی از جمله اطلاعات منبع باز، اطلاعات رسانه های اجتماعی، اطلاعات انسانی و اطلاعات فنی جمع آوری می شود. سپس این داده ها، تجزیه و تحلیل شده و برای توسعه استراتژی هایی برای جلوگیری یا کاهش حملات سایبری استفاده می شود.

نقش هوش تهدید جهانی در مبارزه با حملات سایبری چند جانبه می باشد. در مرحله اول، به شناسایی تهدیدهای بالقوه و مجرمان سایبری در پشت پرده آنها کمک می کند. با تجزیه و تحلیل داده ها، کارشناسان می توانند روش های استفاده شده توسط مجرمان سایبری، مکان آنها و حتی انگیزه های احتمالی آنها را تعیین کنند. این اطلاعات برای توسعه اقدامات متقابل موثر و کمک به سازمان های مجری قانون در تحقیقاتشان بسیار مهم تلقی می شود.

هوش تهدید جهانی به پیش بینی حملات سایبری آتی کمک می کند. مجرمان سایبری به طور مداوم تاکتیک‌ها، تکنیک‌ها و رویه‌های خود (TTP) را برای دور زدن تدابیر امنیتی توسعه می‌دهند. از طریق تجزیه و تحلیل تهدیدات سایبری گذشته و کنونی، هوش تهدید جهانی می‌تواند حملات احتمالی آینده و تکامل احتمالی TTPهای مجرمان سایبری را پیش‌بینی کند. این قابلیت پیش‌بینی به سازمان‌ها اجازه می‌دهد تا در تلاش‌های امنیت سایبری خود فعال باشند.

هوش تهدید جهانی نقش حیاتی در پاسخ و بازیابی حملات سایبری ایفا می کند. در صورت حمله سایبری، اطلاعات به موقع و دقیق تهدید می تواند به محدود کردن آسیب و سرعت بخشیدن به روند بازیابی کمک کند. این فرایند می‌تواند بینش‌هایی درباره ماهیت حمله ارائه دهد که برای اصلاح آسیب‌پذیری‌ها، بازیابی سیستم‌ها و جلوگیری از حملات مشابه در آینده استفاده می شود.

اثربخشی هوش تهدید جهانی در مبارزه با حملات سایبری، به اشتراک گذاری اطلاعات بستگی دارد. تهدیدات سایبری یک مشکل جهانی می باشد و هیچ سازمانی منابع یا توانایی لازم برای مقابله با آنها را ندارد. بنابراین، همکاری و به اشتراک گذاری اطلاعات بین مشاغل، دولت ها و شرکت های امنیت سایبری ضروری می باشد. این همکاری نه تنها کیفیت و کمیت اطلاعات تهدید را افزایش می‌دهد، بلکه سرعت انتشار آن را هم بهبود می‌بخشد و امکان پاسخ سریع‌تر به تهدیدات سایبری را فراهم می‌کند.

در نتیجه، هوش تهدید جهانی نقشی اساسی در افشای نقاب از مجرمان سایبری و مبارزه با حملات سایبری ایفا می کند. اطلاعات لازم برای شناسایی، پیش‌بینی و پاسخگویی مؤثر به تهدیدات سایبری را فراهم می‌کند. ولی، برای اینکه واقعاً مؤثر باشد، یک رویکرد مشترک برای به اشتراک گذاری اطلاعات مورد نیاز می باشد. همانطور که مجرمان سایبری به تکامل تاکتیک های خود ادامه می دهند، استراتژی های ما برای مبارزه با آنها نیز باید انجام شود. هوش تهدید جهانی، همراه با همکاری و به اشتراک گذاری اطلاعات، دفاعی قوی در برابر تهدید همیشگی جرایم سایبری ارائه می دهد.

منبع خبر : fagenwasanni




خبر پنجم:

فناوری فریب در برابر سرقت هویت

سازمان‌ها، امنیت هویت کاربر، ماشین و همچنین زیرساخت‌های هویتی مانند Microsoft Active Directory را در اولویت قرار می‌دهند، زیرا دشمنان به طور فزاینده‌ای از تکنیک‌های مبتنی بر هویت در حملات خود استفاده می‌کنند.

تیم‌های امنیتی امروزی، برای همگام شدن با این تغییرات، به طیف وسیعی از ابزارهای مختلف متکی می باشند و برخی از استراتژی‌های آن‌ها موثرتر از بقیه هستند.

فناوری فریب، مانند هانی‌پات‌ها (honeypots)، روشی مؤثر برای سازمان‌ها جهت فریب دادن دشمنان، محافظت از داده‌ها و کسب اطلاعات در مورد فعالیت‌های بالقوه مخرب به نظر می‌رسد.

اما نقطه ضعف‌های شدیدی وجود دارد که تیم‌های امنیتی ممکن است در هنگام تکیه بر فناوری فریب قدیمی برای دفاع، به آنها توجه نکنند.

نقطه ضعف فناوری فریب

فناوری فریب (Deception Technology) بستگی به محدودیت دانش نهاد حریف از محیط هدف دارد. این ابزارها بر اساس این ایده توسعه می‌یابند که دشمنان از توپولوژی کامل شبکه بی‌اطلاع هستند و با شناخت کمی تصمیم می‌گیرند به کجا بروند و به چه چیزی حمله کنند. متأسفانه در مورد تیم های امنیتی، دشمنان باهوش می توانند از این فناوری علیه آنها استفاده کنند.

بر اساس «گزارش تهدید جهانی 2023»، یک مهاجم می‌تواند در عرض 84 دقیقه از مرحله تخریب اولیه به یک میزبان دیگر در محیط قربانی منتقل شود. این فرایند نشان می دهد که دشمنان پیچیده هستند و ممکن است اطلاعات بیشتری از یک شبکه نسبت به آنچه که اکثر متخصصان امنیتی فکر می کنند داشته باشند. یک دشمن به راحتی می تواند دارایی های فریبنده را شناسایی کند و از آنها برای ایجاد هشدارهای جعلی و منحرف کردن تمرکز تیم های امنیتی استفاده کند در حالی که یک نفوذ واقعی در جاهای دیگر اتفاق می افتد.

به طور معمول، مخالفان (هکرها یا حمله‌کنندگان) با ورود به یک سیستم می‌توانند درون شبکه شرکت دسترسی به دیگر سیستم‌ها را پیدا کنند و از این طریق دسترسی به اطلاعات حساس یا سیستم‌های دیگر را کسب کنند. اگر سیستم‌ها به درستی طراحی و ایمن‌سازی نشده باشند، مخالفان می‌توانند از یک سیستم مورد نظر به سیستم‌های دیگر حرکت کنند و آسیب‌رسانی نمایند.

در واقع، یکی از محدودیت‌ها در برابر حملات ناشی از حرکت جانبی، وجود سیستم‌های ضعیف طراحی شده می باشد. بنابراین، شرکت‌ها باید سیستم‌ها را به صورت محکم ایمن‌سازی کنند. این کار نیاز به زمان، تلاش و توجه به پیچیدگی‌های طراحی دارد تا اطمینان حاصل شود که حمله‌کنندگان نمی‌توانند از این سیستم‌ها به عنوان نقطه شروعی برای دسترسی به سایر سیستم‌ها استفاده کنند.

هزینه های ناشی از هانی پات می تواند افزایش یابد. ساخت و نگهداری یک شبکه مجزا با کامپیوترها و منابع جعلی گران می باشد. هزینه های پشتیبانی هم می تواند افزایش یابد، زیرا فناوری فریب به کارکنان ماهر برای نظارت و نگهداری آن نیاز دارد.

شناسایی، منحرف سازی و خلع سلاح

شرکت‌ها می‌توانند دشمنان را با honey-token ها که به سازمان‌ها را در مورد حملات احتمالی هشدار می‌دهد، فریب دهند. در صورت شناسایی فعالیت‌های غیرمعمول، یک هشدار ایجاد می شود. این هشدارها به تیم‌های امنیتی اجازه می‌دهد تا به سرعت مسیر حمله دشمن را شناسایی کنند و همچنین سیاست‌های حفاظتی می توانند فعالیت‌های حساب honey-token را بصورت آنی مسدود کنند.

توکن‌های honey (honey-token ها) مشروعیت، امنیت و سهولت اجرا را بر روی هانی پات ها ارائه می دهند. هکرها احتمالا بدون اینکه از تشخیص تیم‌های امنیتی خبرداشته باشند، هشدارهای جعلی صادر نمیکنند. همچنین، با استفاده از honey-token، تیم ها مجبور به راه اندازی کل سیستم ها نمی باشند که این امر در زمان و منابع آنها صرفه جویی می کند.

سازمان‌ها می‌توانند کنترل‌های امنیتی شدیدی را بر روی حساب‌های Honey Token اعمال کنند و خطر حرکت جانبی دشمنان در شبکه را از بین ببرند.

تهدیدات مبتنی بر هویت

شناسایی تهدید هویت و پاسخ (ITDR) یک بخش ضروری برای دفاع در برابر سطوح تهدید نسل فعلی محسوب می شود و تیم‌های امنیتی می‌توانند با افزودن honey-token ها به عنوان بخشی از استراتژی جامع حفاظت از هویت، آن را مؤثرتر نمایند. از آنجایی که تشخیص استفاده از اعتبارنامه های به خطر افتاده دشوار می باشد و دشمنان می توانند اقدامات امنیتی سنتی را بدون توجه دور بزنند، این امر بسیار مهم می باشد.

فناوری فریب خود را به عنوان یک راه حل امنیتی موثر برای سازمان ها ثابت نکرده است. آنها باید حفاظت جامع هویت را برای قابلیت‌های تشخیص، پیشگیری بصورت لحظه ای برای دفاع در برابر حملات مبتنی بر هویت در نظر بگیرند.

با ارائه پوشش مداوم و ادغام با فهرست فعال و محصولات مدیریت هویت و دسترسی (IAM) متعدد، یک راه‌حل مبتنی بر شناسایی بر پایه ریسک می‌تواند سطح جامعی از نظارت و شناسایی تهدیدها را برای سازمان‌ها فراهم کند.

منبع خبر : gulfnews