ویرگول
ورودثبت نام
Amir
Amir
خواندن ۳ دقیقه·۲ سال پیش

chat-gpt تهدیدی برای شرکت ها

آیا CHAT-GPT خطرناک است ؟ سوالی است که در این مقاله به آن پاسخ می دهیم.

کارشناسان هشدار می‌دهند که کارمندان داده‌های حساس شرکتی را در اختیار ربات محبوب ChatGPT قرار می‌دهند.
محققان آزمایشگاه Cyberhaven استفاده از ChatGPT را توسط 1.6 میلیون کارمند در شرکت‌ها در سراسر صنایع تجزیه و تحلیل کردند. آنها گزارش دادند که 5.6٪ از آنها از آن در محل کار استفاده کرده اند و 4.9٪ از زمان راه اندازی چت، داده های شرکت را در اختیار آنها قرار داده اند. ChatGPT از این داده ها برای ایجاد پایگاه دانش خود استفاده می کند، اما اطلاعات ساخته شده بر روی آن را به صورت عمومی به اشتراک می گذارد.

استفاده از ChatGPT در حال تبدیل شدن به یک مشکل جدی در فضای کاری است، به طور بالقوه می تواند باعث نشت داده های حساس و محرمانه شود. به همین دلیل، شرکت هایی مانند JP Morgan و Verizon دسترسی به چت بات را به دلیل نگرانی در مورد داده های محرمانه مسدود می کنند.

کارشناسان گزارش کردند که کمتر از یک درصد (0.9٪) از کارمندان مسئول 80٪ نشت های ناشی استفاده از داده ها در chat-gpt هستند. این درصد می تواند در ماه های آینده با ادغام این فناوری در چندین سرویس به سرعت افزایش یابد.

کارمندان بر این باورند که چت ربات هوش مصنوعی توسعه یافته توسط OpenAI می تواند به طور قابل توجهی بهره وری آنها را بهبود بخشد.

کارشناسان همچنین هشدار می دهند که نرم افزار امنیتی سازمانی نمی تواند استفاده از ChatGPT توسط کارمندان را نظارت کند و از نشت اطلاعات حساس و محرمانه شرکت جلوگیری کند.

از زمانی که ChatGPT به صورت عمومی راه اندازی شد، 5.6 درصد از کارکنان حداقل یک بار سعی کرده اند از آن در محل کار استفاده کنند. علاوه بر این، 2.3٪ از کارکنان داده های محرمانه شرکت را در ChatGPT قرار داده اند. گزارش منتشر شده توسط آزمایشگاه Cyberhaven می‌باشد.

با وجود تعداد فزاینده‌ای از شرکت‌ها که دسترسی به ChatGPT را کاملاً مسدود می‌کنند، استفاده همچنان به طور تصاعدی در حال رشد است. در 1 مارس، محصول ما رکورد 3381 تلاش برای استفاده داده‌های شرکتی در ChatGPT به ازای هر 100000 کارمند را شناسایی کرد .

محققان همچنین کارکنانی را که داده‌ها را از چت بات کپی می‌کردند و آن‌ها را در جای دیگری مانند ایمیل شرکت، Google Doc یا ویرایشگر کد منبع خود قرار می‌دادند، زیر نظر گرفتند. آنها متوجه شدند که کارمندان بیشتر از اینکه داده های شرکت را ChatGPT قرار دهند، داده ها را از چت بات کپی می کنند.

محققان خاطرنشان کردند که شرکت‌های معمولی صدها بار در هفته اطلاعات حساس را در اختیار ChatGPT  قرار می دهند. به عنوان مثال، در طول هفته 26 فوریه تا 4 مارس، کارمندان یک شرکت متوسط با 100000 کارمند، 199 بار اسناد محرمانه را به چت بات مبتنی بر هوش مصنوعی، 173 بار داده های مشتری و 159 بار کد منبع ارائه کردند.

ما نمی توانیم استفاده از پلتفرم محبوب در محل کار را شیطانی جلوه دهیم، با این حال، گسترش آگاهی در مورد خطرات استفاده نادرست از چنین فناوری ضروری است.

اجازه دهید با این سوال که از ربات چت پرسیدم پایان دهم:

ارائه اطلاعات شرکت به Chat-GPT خطرناک است؟

ChatGPT به عنوان یک مدل زبان بزرگ، توانایی ذخیره یا به دست آوردن اطلاعات شرکت یا شخصی را ندارد. این بدان معنی است که هیچ خطر ذاتی در استفاده از ChatGPT برای بحث در مورد مسائل کلی یا پرسیدن سؤالات مرتبط با دانش وجود ندارد.

با این حال، اگر اطلاعات محرمانه یا حساسی در مورد یک شرکت یا شخص ارائه کنید، این اطلاعات می‌تواند در برابر تهدیدات امنیتی یا حریم خصوصی مرتبط با ارتباطات آنلاین آسیب‌پذیر باشد. به طور کلی، همیشه مهم است که هنگام بحث درباره اطلاعات حساس آنلاین، دقت لازم را انجام دهید.

به طور خلاصه، ChatGPT به خودی خود خطری برای امنیت داده های شرکت نیست، اما همیشه مهم است که به حفظ حریم خصوصی و امنیت آنلاین توجه داشته باشید و به دقت در نظر بگیرید که چه نوع اطلاعاتی را در یک پلت فرم چت بات به اشتراک می گذارید.

منبع : رسانه خبری کرووس

chat gptحریم خصوصیهوش مصنوعی
نویسنده سایت corvus.news هستم
شاید از این پست‌ها خوشتان بیاید