ویرگول
ورودثبت نام
آیدین فریدنژاد
آیدین فریدنژادکارشناسی ارشد حسابرسی، فعال و تحلیلگر بازار بورس ایران، مشاور حوزه کسب و کار
آیدین فریدنژاد
آیدین فریدنژاد
خواندن ۴ دقیقه·۶ ماه پیش

شکارچیان بی‌صدا: چطور استفاده نادرست از هوش مصنوعی پنهانی کسب‌وکارها را زمین می‌زند

مقدمه:

هوش مصنوعی، همان ماشینی که قرار بود قهرمان بهره‌وری سازمان‌ها شود، این روزها در بعضی شرکت‌ها به یک شمشیر دولبه تبدیل شده است. گزارش تازه مکنزی (۲۰۲۵) نشان می‌دهد که ۹۴٪ از کارکنان و ۹۹٪ مدیران ارشد با ابزارهای‌ هوش مصنوعی آشنایی دارند و ۹۲٪ سازمان‌ها قصد دارند ظرف سه سال آینده سرمایه‌گذاری خود را در این حوزه افزایش دهند. با این حال، تنها ۱٪ از سازمان‌ها به نقطه «بلوغ» در استفاده از AI رسیده‌اند؛ یعنی جایی که این فناوری واقعاً در قلب فرآیندها تنیده شود و بازده مالی ملموس ایجاد کند.

اما مشکل کجاست؟ داده‌های هاروارد و فوربز می‌گویند بخش زیادی از چالش‌ها نه فنی، بلکه ناشی از خطاهای رفتاری و مدیریتی در استفاده از AI است.


۱. روش‌های نادرست رایج در محیط کار

۱-۱. هوش مصنوعی در سایه (Shadow AI)

طبق تحقیق فوربز، ۹۳٪ مدیران امنیت اطلاعات نگران «هوش مصنوعی سایه» هستند؛ یعنی زمانی که کارمندان بدون اطلاع یا تأیید بخش IT از ابزارهایی مانند ChatGPT برای وظایف کاری استفاده می‌کنند. حتی ۶٪ از کارکنان اطلاعات مالکیتی حساس را مستقیماً در این ابزارها جای‌گذاری کرده‌اند. پیامد؟ احتمال نشت داده به بیرون و آسیب جبران‌ناپذیر به اعتبار سازمان.

۱-۲. BYOAI – آوردن هوش مصنوعی شخصی به محل کار

کارمندان گاه از ابزارهای AI شخصی (از Grammarly تا Midjourney) در پروژه‌های سازمانی استفاده می‌کنند. در نگاه اول بی‌ضرر است، اما زمانی که داده‌ها به سرورهای خارجی منتقل شود، کنترل امنیتی از دست سازمان خارج می‌شود.

۱-۳. مسموم‌سازی داده‌ها (Data Poisoning)

حتی یک درصد داده‌ی اشتباه یا دستکاری‌شده در آموزش مدل می‌تواند خروجی تصمیمات را به بیراهه ببرد. این خطر به‌خصوص در سازمان‌هایی که کنترل کیفی داده‌های ورودی را ندارند، دیده می‌شود.

۱-۴. تولید محتوای جعلی و دیپ‌فیک‌ها

بدون نظارت و استانداردسازی ورودی‌ها، مدل‌ها می‌توانند محتوای گمراه‌کننده یا حتی جعل‌های تصویری و ویدئویی تولید کنند؛ بحرانی که طبق فوربز، مقابله با آن به نوآوری جدی در سیستم‌های کشف و تشخیص نیاز دارد.

۱-۵. سوگیری الگوریتمی (AI Bias)

وقتی داده‌های آموزش از نظر جنسیت، قومیت یا شرایط اجتماعی متوازن نباشد، مدل خروجی‌های تبعیض‌آمیز تولید می‌کند. بدتر اینکه تحقیقات Scientific American ثابت کرده کاربران حتی بعد از قطع استفاده از AI، این سوگیری‌ها را در ذهن خود نگه می‌دارند.


۲. اثرات مخرب این رفتارها بر کسب‌وکار

  • خسارت مالی مستقیم: هزینه بازیابی داده‌های افشاشده یا حذف محتوای جعلی می‌تواند از چند صد هزار تا میلیون‌ها دلار متغیر باشد.

  • فرسایش اعتماد: مشتری و سهام‌دار وقتی بفهمد اطلاعات سازمانی به شکل غیرایمن در ChatGPT قرار گرفته، اعتمادش به برند به‌شدت افت می‌کند.

  • افت بهره‌وری واقعی: اتکای بیش از حد و بدون نظارت به AI می‌تواند باعث شود کارکنان مهارت‌های تحلیلی و خلاقیت خود را از دست بدهند.

  • ریسک‌های حقوقی و انطباق (Compliance): استفاده از ابزارهایی که الزامات GDPR یا قوانین داخلی را رعایت نمی‌کنند، می‌تواند منجر به جریمه‌های سنگین شود.


۳. راهکارهای استفاده درست از هوش مصنوعی

۳-۱. چارچوب حکمرانی AI (AI Governance Framework)

یک دستورالعمل شفاف برای انتخاب، استفاده، و پایش ابزارهای AI تدوین کنید. مکنزی توصیه می‌کند این چارچوب نه‌فقط فنی، بلکه شامل سیاست‌های شفاف برای داده، امنیت و اخلاق باشد.

۳-۲. آموزش منظم کارمندان

فوربز گزارش می‌دهد بیش از ۵۰٪ شرکت‌ها سالانه کمتر از پنج ساعت آموزش AI به کارکنان می‌دهند. حداقل ۲۰ ساعت آموزش سالانه با مثال‌های واقعی ریسک را به شکل محسوسی کاهش می‌دهد.

۳-۳. محیط‌های AI ایزوله (Sandboxed)

برای آزمایش ایده‌ها و مدل‌ها، یک محیط داخلی امن بسازید که داده‌ها به بیرون از سازمان منتقل نشوند.

۳-۴. نظارت پیوسته و ابزارهای مانیتورینگ

استفاده از پلتفرم‌های تخصصی مثل Portal26 برای پایش استفاده کارکنان از AI، شناسایی استفاده‌های غیرمجاز و جلوگیری از نشت اطلاعات.

۳-۵. تلفیق AI با مهارت انسانی (Human-in-the-loop)

به‌جای واگذاری کامل فرآیندها به AI، همواره یک لایه بررسی انسانی برای تصمیمات حیاتی وجود داشته باشد؛ به‌خصوص در حوزه‌هایی مثل منابع انسانی، امور حقوقی و تحلیل داده‌های حساس.


۴. یک مثال واقعی

یک شرکت خدمات مالی اروپایی با ۱۲۰۰ کارمند، سال گذشته به دلیل قرار گرفتن داده‌های مشتریان VIP در یک ابزار ترجمه AI عمومی، مجبور به پرداخت ۴.۸ میلیون یورو غرامت شد. این حادثه تنها به این دلیل رخ داد که یک کارمند برای «سریع‌تر تمام کردن کار»، قوانین IT را نادیده گرفت. بعد از حادثه، شرکت:

  1. محیط AI داخلی ایجاد کرد.

  2. دستیابی به ابزار هوش مصنوعی عمومی را محدود کرد.

  3. دوره آموزشی ۳۰ ساعته برای همه کارکنان برگزار کرد.

نتیجه؟ در کمتر از یک سال، بهره‌وری تیم‌ها ۱۸٪ افزایش یافت بدون آنکه ریسک امنیتی تازه‌ای ظاهر شود.


هوش مصنوعی، اگر مدیریت نشود، همان‌قدر که می‌تواند رشدآفرین باشد، می‌تواند بی‌سر و صدا سازمان را تهدید کند. برنده‌های این بازی کسانی خواهند بود که نه بزرگ‌ترین یا ثروتمندترین، بلکه هوشیارترین و آماده‌ترین برای استفاده مسئولانه از AI باشند.

هوش مصنوعیچت جی پی تیکسب و کارآینده
۲
۰
آیدین فریدنژاد
آیدین فریدنژاد
کارشناسی ارشد حسابرسی، فعال و تحلیلگر بازار بورس ایران، مشاور حوزه کسب و کار
شاید از این پست‌ها خوشتان بیاید