✍️ بر اساس کتاب The AI Pocket Book اثر Emmanuel Maggiori

در دنیای امروز، تقریباً هر کسبوکاری میخواهد از هوش مصنوعی (AI) استفاده کند. اما «بسیاری از پروژههای AI شکست میخورند، نه به خاطر ضعف فناوری، بلکه به خاطر اشتباه در تشخیص اینکه آیا اصلاً باید از AI استفاده کرد یا نه.»
سه پرسش مهم و کلیدی وجود دارد که پاسخ درست به آنها میتواند تفاوت بین شکست و موفقیت یک محصول هوشمند باشد.
❓ ۱. آیا من AI را قبل از مشتری قرار میدهم؟(?Am I putting AI before the customer)
بسیاری از شرکتها عاشق «هوش مصنوعی» شدهاند و میخواهند از آن در هر چیزی استفاده کنند — بدون اینکه مطمئن باشند مشتری اصلاً چنین چیزی میخواهد یا نه! اگر فقط برای اینکه محصولتان «مدرن و جذاب» به نظر برسد از AI استفاده میکنید، مسیر اشتباهی را میروید. اول باید مسئله واقعی مشتری را بشناسید، سپس تصمیم بگیرید که آیا AI بهترین راهحل است یا نه. یک استارتآپ حسابداری تصمیم داشت ویژگی ChatGPT را به نرمافزارش اضافه کند تا بگوید «ما هم از AI استفاده میکنیم». اما کاربران در واقع فقط به گزارشهای دقیق و سریع نیاز داشتند، نه یک چتبات! در نتیجه ویژگی جدید مورد استقبال قرار نگرفت.
⚠️ درس: AI باید ابزار حل مسئله باشد، نه خودِ مسئله. قبل از کدنویسی بپرسید: آیا مشتری از این قابلیت واقعاً سود میبرد، یا فقط من از “AI” هیجانزدهام؟
❓ ۲. آیا توهمات (Hallucinations) در محصول من قابلقبول هستند؟ (?Are hallucinations okay)
مدلهای زبانی بزرگ (LLMها) گاهی اطلاعات اشتباه یا ساختگی تولید میکنند — این خطاها «توهم» نام دارند. قبل از تولید محصول هوش مصنوعی باید از خود بپرسید: اگر مدل اشتباه کند، چه اتفاقی میافتد؟ آیا برای کاربر قابل بخشش و جبران است یا نه؟ پروژه Drive-through AI مکدونالد با هدف خودکار کردن سفارش مشتریان طراحی شد. اما سیستم گاهی سفارش را اشتباه میفهمید — مثلاً به جای «۶ ناگت مرغ»، ۲۲۴ بسته ناگت ثبت میکرد! برای مشتریانی که در صف منتظر بودند، این خطاها غیرقابلقبول بود و در نهایت پروژه متوقف شد. در مقابل، بعضی کاربردها توهم را میپذیرند: مثلاً ترجمه نظرات در سایتهای رزرو سفر مانندBooking یا Tripadvisor. اگر ترجمه کمی اشتباه باشد، تجربه کاربر خیلی آسیب نمیبیند.
⚠️ درس: اگر خطای مدل میتواند به اعتماد کاربر یا عملکرد حیاتی سیستم لطمه بزند، باید راهحل دیگری پیدا کنید یا از AI صرفنظر کنید.
❓ ۳. آیا لازم است بدانم خروجی چگونه تولید شده است؟ (Do I need to explain how the output is ?generated )
یکی از محدودیتهای بزرگ AI این است که «چرا»ی تصمیمهایش مشخص نیست. مدلهای پیچیده مثل GPT یا شبکههای عصبی عمیق، جعبهسیاه (Black Box) هستند — ورودی میدهید و خروجی میگیرید، ولی نمیدانید دقیقاً چه شد که به آن نتیجه رسید. در برخی حوزهها (مثل مالی، بیمه، پزشکی یا حقوقی)، این مسئله خطرناک است. سازمانها ممکن است برای اعتماد یا رعایت مقررات نیاز به توضیحپذیری (Explainability) داشته باشند. برای مثال در پیشبینی رفتار مشتری، شرکتها میخواهند بدانند کدام عاملها بیشترین تأثیر را دارند. اگر مدل فقط «نتیجه» بدهد، بدون توضیح دلیل آن، تصمیمگیرندگان نمیتوانند به آن اعتماد کنند. بنابراین، اگر توضیحپذیری مهم است، از مدلهای سادهتر استفاده کنید — مثل مدلهای خطی یا درخت تصمیم. وگرنه، حتی بهترین مدلهای زبانی هم ممکن است در محیطهای حساس دردسرساز شوند.
⚠️ درس: اگر نمیتوانید توضیح دهید که AI چرا چنین تصمیمی گرفته، و مشتری یا قانون از شما توضیح میخواهد، باید مدل سادهتری انتخاب کنید.
هوش مصنوعی فقط وقتی ارزش دارد که برای حل یک نیاز واقعی مشتری به کار گرفته شود.
دقت، توضیحپذیری و میزان تحمل خطا باید از قبل مشخص شوند.
بسیاری از پروژهها شکست میخورند، نه چون AI بد است، بلکه چون بیهدف استفاده شده است.
🔹 جمله کلیدی: «AI باید خدمتی به مشتری باشد، نه ویترینی برای نمایش فناوری.»