
هوش مصنوعی، همان ماشینی که قرار بود قهرمان بهرهوری سازمانها شود، این روزها در بعضی شرکتها به یک شمشیر دولبه تبدیل شده است. گزارش تازه مکنزی (۲۰۲۵) نشان میدهد که ۹۴٪ از کارکنان و ۹۹٪ مدیران ارشد با ابزارهای هوش مصنوعی آشنایی دارند و ۹۲٪ سازمانها قصد دارند ظرف سه سال آینده سرمایهگذاری خود را در این حوزه افزایش دهند. با این حال، تنها ۱٪ از سازمانها به نقطه «بلوغ» در استفاده از AI رسیدهاند؛ یعنی جایی که این فناوری واقعاً در قلب فرآیندها تنیده شود و بازده مالی ملموس ایجاد کند.
اما مشکل کجاست؟ دادههای هاروارد و فوربز میگویند بخش زیادی از چالشها نه فنی، بلکه ناشی از خطاهای رفتاری و مدیریتی در استفاده از AI است.
طبق تحقیق فوربز، ۹۳٪ مدیران امنیت اطلاعات نگران «هوش مصنوعی سایه» هستند؛ یعنی زمانی که کارمندان بدون اطلاع یا تأیید بخش IT از ابزارهایی مانند ChatGPT برای وظایف کاری استفاده میکنند. حتی ۶٪ از کارکنان اطلاعات مالکیتی حساس را مستقیماً در این ابزارها جایگذاری کردهاند. پیامد؟ احتمال نشت داده به بیرون و آسیب جبرانناپذیر به اعتبار سازمان.
کارمندان گاه از ابزارهای AI شخصی (از Grammarly تا Midjourney) در پروژههای سازمانی استفاده میکنند. در نگاه اول بیضرر است، اما زمانی که دادهها به سرورهای خارجی منتقل شود، کنترل امنیتی از دست سازمان خارج میشود.
حتی یک درصد دادهی اشتباه یا دستکاریشده در آموزش مدل میتواند خروجی تصمیمات را به بیراهه ببرد. این خطر بهخصوص در سازمانهایی که کنترل کیفی دادههای ورودی را ندارند، دیده میشود.
بدون نظارت و استانداردسازی ورودیها، مدلها میتوانند محتوای گمراهکننده یا حتی جعلهای تصویری و ویدئویی تولید کنند؛ بحرانی که طبق فوربز، مقابله با آن به نوآوری جدی در سیستمهای کشف و تشخیص نیاز دارد.
وقتی دادههای آموزش از نظر جنسیت، قومیت یا شرایط اجتماعی متوازن نباشد، مدل خروجیهای تبعیضآمیز تولید میکند. بدتر اینکه تحقیقات Scientific American ثابت کرده کاربران حتی بعد از قطع استفاده از AI، این سوگیریها را در ذهن خود نگه میدارند.
خسارت مالی مستقیم: هزینه بازیابی دادههای افشاشده یا حذف محتوای جعلی میتواند از چند صد هزار تا میلیونها دلار متغیر باشد.
فرسایش اعتماد: مشتری و سهامدار وقتی بفهمد اطلاعات سازمانی به شکل غیرایمن در ChatGPT قرار گرفته، اعتمادش به برند بهشدت افت میکند.
افت بهرهوری واقعی: اتکای بیش از حد و بدون نظارت به AI میتواند باعث شود کارکنان مهارتهای تحلیلی و خلاقیت خود را از دست بدهند.
ریسکهای حقوقی و انطباق (Compliance): استفاده از ابزارهایی که الزامات GDPR یا قوانین داخلی را رعایت نمیکنند، میتواند منجر به جریمههای سنگین شود.
یک دستورالعمل شفاف برای انتخاب، استفاده، و پایش ابزارهای AI تدوین کنید. مکنزی توصیه میکند این چارچوب نهفقط فنی، بلکه شامل سیاستهای شفاف برای داده، امنیت و اخلاق باشد.
فوربز گزارش میدهد بیش از ۵۰٪ شرکتها سالانه کمتر از پنج ساعت آموزش AI به کارکنان میدهند. حداقل ۲۰ ساعت آموزش سالانه با مثالهای واقعی ریسک را به شکل محسوسی کاهش میدهد.
برای آزمایش ایدهها و مدلها، یک محیط داخلی امن بسازید که دادهها به بیرون از سازمان منتقل نشوند.
استفاده از پلتفرمهای تخصصی مثل Portal26 برای پایش استفاده کارکنان از AI، شناسایی استفادههای غیرمجاز و جلوگیری از نشت اطلاعات.
بهجای واگذاری کامل فرآیندها به AI، همواره یک لایه بررسی انسانی برای تصمیمات حیاتی وجود داشته باشد؛ بهخصوص در حوزههایی مثل منابع انسانی، امور حقوقی و تحلیل دادههای حساس.
یک شرکت خدمات مالی اروپایی با ۱۲۰۰ کارمند، سال گذشته به دلیل قرار گرفتن دادههای مشتریان VIP در یک ابزار ترجمه AI عمومی، مجبور به پرداخت ۴.۸ میلیون یورو غرامت شد. این حادثه تنها به این دلیل رخ داد که یک کارمند برای «سریعتر تمام کردن کار»، قوانین IT را نادیده گرفت. بعد از حادثه، شرکت:
محیط AI داخلی ایجاد کرد.
دستیابی به ابزار هوش مصنوعی عمومی را محدود کرد.
دوره آموزشی ۳۰ ساعته برای همه کارکنان برگزار کرد.
نتیجه؟ در کمتر از یک سال، بهرهوری تیمها ۱۸٪ افزایش یافت بدون آنکه ریسک امنیتی تازهای ظاهر شود.
هوش مصنوعی، اگر مدیریت نشود، همانقدر که میتواند رشدآفرین باشد، میتواند بیسر و صدا سازمان را تهدید کند. برندههای این بازی کسانی خواهند بود که نه بزرگترین یا ثروتمندترین، بلکه هوشیارترین و آمادهترین برای استفاده مسئولانه از AI باشند.