این روزها در تیم مارکتینگ ما هوش مصنوعی و مدلهای زبانی بزرگ (GenAI/LLM) تقریباً در تمام مراحل چرخهٔ تحلیل داده حضور دارند؛ از مسئلهیابی و تعریف مسئله گرفته تا چارچوببندی، پیادهسازی، تحلیل نهایی و حتی داستانسرایی داده. این ابزارها سرعت و کیفیت کار را بالا میبرند و گاهی مثل یک «دستیار همهچیزدان» عمل میکنند.

اما در کنار این فرصتها، پرسشهای مهمی مطرح میشود:
آیا ممکن است AI اشتباه کند؟
آیا ممکن است دادههای ما ناامن شود؟
آیا ممکن است ما را به روشهای موجود بایاس کند؟
آیا ممکن است به مرور ما را تنبل و از مهارتهایمان دور کند؟
نقش واقعی ما چیست و چه مهارتهایی باید توسعه بدهیم؟
این دغدغهها فقط مخصوص ما نیست. تقریباً همهٔ دنیا با همین پرسشها دستوپنجه نرم میکنند. حکمرانان در سطح قانونگذاری و حاکمیت داده هنوز به یک «بهروش (Best Practice)» قطعی نرسیدهاند. بعضی شرکتهای بزرگ، بهویژه آنهایی که به دولت نزدیکترند و یا ساختار سنتیتری دارند، استفاده از ChatGPT را در سازمانهایشان ممنوع و حتی روی شبکههای داخلی فیلتر کردهاند. با این حال کارمندان اغلب با دستگاههای شخصی خودشان از این ابزارها استفاده میکنند؛ چه کسی بدش میآید یک دستیار سریع و بیدردسر داشته باشد که کارها را بهتر انجام دهد؟
از سوی دیگر، بسیاری از سازمانهای پیشرو سریعاً سازگار شدهاند: یک LLM داخلی بالا آوردهاند، کارکنان را تشویق به استفاده کردهاند و با کمک آن فرآیندها و راهحلهای تازه ساختهاند. خیلیهای دیگر هنوز موضع روشنی نگرفتهاند و منتظرند ببینند در دنیا چه الگوهای موفقی شکل میگیرد تا از آنها استفاده کنند.
واقعیت این است که هنوز چالشهای حاکمیت داده، بهرهوری و مسیر شغلی کارکنان بهطور کامل روشن نشده است. با این حال ما تصمیم گرفتهایم به جای انتظار منفعلانه، یک چارچوب موقت برای استفاده از این فناوری داشته باشیم. این چارچوب تبدیل به یک شیوهنامه رفتاری در استفاده از این فناوریها شده است؛ مجموعهای از بایدها/نبایدها، اصول و خطوط قرمز و توصیهها و پیشنهادات.
در ادامه، تصمیم گرفتم این شیوهنامهٔ استفاده از ChatGPT در فرآیندهای تحلیل دادهٔ تیم مارکتینگ را با شما به اشتراک بگذارم. میتوانید از آن استفاده کنید یا پیشنهاداتی برای بهبود و ارتقای آن بدهید.