خلاصه مقالات قبل: فهمیدیم توهم AI چیه، انواعش رو شناختیم، و یاد گرفتیم چرا اصلاً اتفاق میافته. حالا وقتشه بریم سراغ مهارتهای عملی - چطور بفهمیم AI داره بهمون دروغ میگه!
چند وقت پیش یه دوستم تماس گرفت و گفت: "یه ساعته دارم دنبال یه مقالهای میگردم که AI بهم معرفی کرده. هیچ جا پیداش نمیکنم!"
گفتم: "شاید اون مقاله اصلاً وجود نداره؟"
گفت: "نه بابا! AI خیلی مطمئن گفت. حتی نام نویسنده و سال انتشار هم داد!"
خب... اونجا بود که فهمیدم باید یه راهنمای عملی بنویسم که همه بتونن سریع تشخیص بدن کی AI داره توهم میزنه! 🎯
بذارید با یه قاعده طلایی شروع کنم:

این اولین و مهمترین قانونه. حتی اگه AI خیلی مطمئن به نظر برسه، حتی اگه جزئیات دقیق بده، حتی اگه خیلی حرفهای بنویسه...
همیشه شک کنید!
نه شک بدبینانه، بلکه شک علمی. مثل یه محقق که میگه "جالبه، ولی بذار چک کنم."
حالا بریم سراغ 10 تا نشانه هشداردهنده که بهتون میگه: "وایسا، اینجا یه چیزی درست نیست!"
وقتی باید زنگ خطر بزنه:
وقتی AI درباره یه چیز نسبتاً ناشناخته یا مبهم، اطلاعات خیلی خیلی دقیق میده.
مثال قرمز 🚩:
شما: "درباره شرکت تکنولوژی 'پردازش ابری ایران' بگو."
AI: "شرکت پردازش ابری ایران در سال 1398 توسط مهندس علی محمدی و دکتر سارا احمدی در شهر تهران، خیابان ولیعصر، پلاک 234 تأسیس شد. این شرکت با سرمایه اولیه 5 میلیارد تومان شروع به کار کرد و در سال اول فعالیت خود 127 مشتری جذب کرد."
چرا مشکوکه؟
آدرس دقیق (خیابان، پلاک)
سرمایه دقیق (5 میلیارد)
تعداد مشتری دقیق (127 نفر)
برای یه شرکت کوچک و ناشناخته، این جزئیات معمولاً در دسترس نیست!
مثال سبز ✅:
AI: "شرکتهای پردازش ابری در ایران معمولاً با سرمایههای متوسط شروع میکنن و در سالهای اول، مشتریان محدودی دارن. برای اطلاعات دقیقتر، بهتره به سایت رسمی شرکت یا گزارشهای رسمی مراجعه کنید."
چیکار کنیم؟
✅ روش درست: هر جزئیات دقیق رو جداگانه چک کنید
✅ روش درست: اگه منبع نداد، فرض کنید ساختگیه
✅ روش درست: از Google Maps آدرس رو چک کنید
❌ روش اشتباه: فکر کنید "خب جزئیات داده، پس میدونه"
وقتی باید شک کنید:
وقتی AI منبع معرفی میکنه ولی:
لینک نمیده
لینک میده ولی کار نمیکنه
لینک به جای دیگهای میره
مثال قرمز 🚩:
شما: "مقاله علمی درباره هوش مصنوعی در پزشکی معرفی کن."
AI: "مقاله 'کاربرد هوش مصنوعی در تشخیص سرطان' نوشته دکتر احمد رضایی و دکتر مریم کریمی، منتشر شده در مجله علوم پزشکی ایران، سال 1401، صفحات 145-162، یکی از جامعترین مقالات در این زمینه است."
چرا مشکوکه؟
منبع کامل و حرفهای (به ظاهر)
ولی هیچ لینک، DOI، یا شناسه دیگری نداره
نمیتونید چک کنید واقعاً وجود داره یا نه
تست سریع:
اسم نویسنده رو گوگل کنید
نام مجله رو بررسی کنید
از AI لینک مستقیم بخواید
اگه هیچکدوم کار نکرد = احتمال توهم بالا! 🚨
مثال واقعی خودم:
یه بار از AI خواستم درباره یه موضوع تخصصی، 5 تا مقاله معرفی کنه. همهشون خیلی حرفهای به نظر میرسیدن.
رفتم دنبال اولین مقاله: پیدا نشد.
دومی: پیدا نشد.
سومی: پیدا شد! (خوشحال شدم)
چهارمی: پیدا نشد.
پنجمی: پیدا شد ولی نویسندهش اشتباه بود!
نتیجه: 60% توهم! 😅
چیکار کنیم؟
✅ همیشه لینک بخواید
✅ لینک رو کلیک کنید و ببینید به همون محتوا میره یا نه
✅ شماره DOI رو توی Google Scholar جستجو کنید
✅ اگه منبع پیدا نشد، رد کنید
وقتی باید زنگ خطر بزنه:
وقتی AI آمار خیلی دقیق میده ولی نمیگه از کجا آورده.
مثال قرمز 🚩:
شما: "چند نفر در ایران از هوش مصنوعی استفاده میکنن؟"
AI: "بر اساس آمار سال 2024، حدود 3.8 میلیون کاربر ایرانی از ابزارهای هوش مصنوعی استفاده میکنند که این عدد نسبت به سال قبل 287% رشد داشته است."
چرا مشکوکه؟
عدد خیلی دقیق (3.8 میلیون، نه "حدود 3 تا 4 میلیون")
درصد رشد دقیق (287%، نه "حدود 3 برابر")
ولی هیچ منبع رسمی این آمار رو منتشر نکرده!
تست سریع:
بپرسید: "این آمار از کجاست؟ منبع داری؟"
اگه جواب مبهم داد مثل:
"بر اساس تحقیقات مختلف..."
"آمارهای موجود نشان میدهد..."
"بررسیهای صورت گرفته حاکی از آن است..."
یعنی داره حدس میزنه! 🎲
یه ترفند جالب:
بعضی وقتها از AI میپرسم: "مطمئنی این آمار درسته؟"
جالبه که گاهی جوابش عوض میشه و میگه: "راستش من دسترسی به آمار دقیق ندارم..."
پس چرا اول با اطمینان گفتی؟! 😅
چیکار کنیم؟
✅ هر آماری رو از منابع رسمی چک کنید (مرکز آمار، وزارتخانهها، موسسات معتبر)
✅ اگه آمار خیلی دقیق بود، بیشتر شک کنید
✅ از AI بخواید منبع دقیق بده
وقتی باید شک کنید:
وقتی همون سوال رو دوباره میپرسید و جواب متفاوت میگیرید!
آزمایش عملی:
بار اول بپرسید: "حقوق متوسط برنامهنویس در تهران چقدره؟"
AI: "حقوق متوسط برنامهنویس در تهران حدود 35 میلیون تومان است."
چند دقیقه بعد، دوباره همین سوال رو بپرسید:
AI: "حقوق متوسط برنامهنویس در تهران بین 25 تا 45 میلیون تومان است."
چی شد؟
جواب اول: 35 میلیون (دقیق)
جواب دوم: 25 تا 45 میلیون (بازه)
اگه AI واقعاً میدونست، باید هر دو بار یه جواب میداد! این تناقض نشون میده که داره حدس میزنه. 🤔
مثال واقعی بدتر:
یه بار از AI پرسیدم: "فیلم 'سرزمین رویاها' کی اکران شد؟"
بار اول: "سال 2019"
بار دوم: "سال 2021"
بار سوم: "متأسفانه اطلاعات دقیقی ندارم"
هر بار جواب متفاوت! چون فیلم اصلاً وجود نداشت و AI داشت حدس میزد! 🎬❌
چیکار کنیم؟
✅ موارد مهم رو دوبار بپرسید (با فاصله زمانی)
✅ اگه جوابها متفاوت بود، هیچکدوم رو باور نکنید
✅ از منابع مستقل چک کنید
وقتی باید شک کنید:
وقتی AI درباره موضوعات پیچیده یا بحثبرانگیز، با قاطعیت 100% حرف میزنه.
کلمات خطرناک:
"قطعاً"
"بدون شک"
"همیشه"
"هیچوقت"
"تمام"
"هیچ"
مثال قرمز 🚩:
شما: "آیا قهوه برای سلامتی خوبه؟"
AI: "بله، قهوه قطعاً برای سلامتی مفید است و همیشه باید روزانه 2 تا 3 فنجان مصرف کنید. هیچ عارضه جانبی ندارد."
چرا خطرناکه؟
"قطعاً" = قطعیت مطلق
"همیشه" = بدون استثنا
"هیچ عارضه" = صفر ریسک
در حالی که واقعیت پیچیدهتره! برای بعضی افراد خوبه، برای بعضیا مضر. بستگی به سن، بیماری، مقدار و... داره. ☕
مثال سبز ✅:
AI: "قهوه میتونه برای بعضی افراد مفید باشه، ولی این بستگی به شرایط فردی داره. تحقیقات نشون داده که مصرف متعادل (2-3 فنجان) برای اکثر افراد سالم بیخطره، ولی برای افراد با مشکلات قلبی یا حساسیت به کافئین، ممکنه مشکلساز باشه. بهتره با پزشک مشورت کنید."
تفاوت رو میبینید؟
جواب دوم:
"میتونه" به جای "قطعاً"
"بعضی" به جای "همیشه"
"بیشتر" به جای "همه"
اشاره به استثناها
چیکار کنیم؟
✅ به جملات قاطع توی موضوعات پیچیده شک کنید
✅ اگه دیدید "همیشه" یا "هیچوقت"، بپرسید "مطمئنی؟"
✅ دنبال استثناها بگردید
وقتی باید حواستون باشه:
این یکی حقهبازترینشونه! AI یه چیزهایی که درستان رو با چیزهایی که ساختگیان، قاطی میکنه.
مثال قرمز 🚩:
شما: "درباره استیو جابز بگو."
AI: "استیو جابز در سال 1955 به دنیا اومد و بنیانگذار شرکت اپل بود. اون در دوران جوانی به هند سفر کرد و به بودیسم علاقهمند شد. جالبه که جابز 3 تا پتنت شخصی در حوزه نقاشی دیجیتال ثبت کرده که توی موزه هنر مدرن نیویورک نمایش داده شدن."
تجزیه:
✅ تولد 1955 = درست
✅ بنیانگذار اپل = درست
✅ سفر به هند = درست
✅ علاقه به بودیسم = درست
❌ 3 پتنت در نقاشی = غلط
❌ نمایش در موزه = غلط
چرا خطرناکه؟
چون 70% جواب درسته، مغز ما 30% باقیمونده رو هم باور میکنه! 🧠
این مثل اینه که یه دروغگو 7 تا حقیقت بگه و بعد 3 تا دروغ بینشون قاطی کنه. شما چون 7 تای اول درست بود، 3 تای آخر رو هم باور میکنید!
تست عملی:
وقتی AI یه پاراگراف طولانی مینویسه، جملهها رو جدا کنید و هر جمله رو جداگانه چک کنید.
مثلاً توی مثال بالا:
تولد 1955؟ → گوگل = ✅
بنیانگذار اپل؟ → گوگل = ✅
سفر به هند؟ → گوگل = ✅
پتنت نقاشی؟ → گوگل = ❌
چیکار کنیم؟
✅ هر ادعا رو جداگانه بررسی کنید
✅ فکر نکنید "خب یه بخشش درست بود، پس همش درسته"
✅ به جزئیات غیرمعمول بیشتر دقت کنید
وقتی باید زنگ خطر بزنه:
وقتی AI اسامی کتاب، شرکت، فیلم، یا افراد خیلی "عمومی" و "معمولی" معرفی میکنه.
مثالهای مشکوک:
📕 کتابها:
"اصول موفقیت"
"راهنمای کامل هوش مصنوعی"
"مبانی برنامهنویسی"
این عناوین خیلی عمومیان! ممکنه کتابی با این اسم وجود داشته باشه، ولی احتمالاً AI داره یه عنوان "منطقی" میسازه.
🏢 شرکتها:
"شرکت فناوری ایران"
"موسسه تحقیقات پیشرفته"
"مرکز نوآوری تهران"
🎬 فیلمها:
"سفر به ناکجاآباد"
"رویای آزادی"
"راز موفقیت"
چرا مشکوکان؟
چون AI یاد گرفته که:
کتابها معمولاً عناوین توصیفی دارن
شرکتها اغلب "نوع کار + منطقه" رو توی اسمشون دارن
فیلمها معمولاً عناوین انتزاعی دارن
پس وقتی نمیدونه، یه نام "منطقی ولی عمومی" میسازه!
مثال واقعی:
یه بار پرسیدم: "بهترین کتاب فارسی درباره بلاکچین چیه؟"
AI: "کتاب 'راهنمای جامع بلاکچین' نوشته مهندس محمد احمدی..."
رفتم دنبال کتاب، نبود! عنوان خیلی عمومی بود و AI ساخته بود! 📚❌
چیکار کنیم؟
✅ عناوین خیلی عمومی رو با شک بیشتر چک کنید
✅ اسم کامل (کتاب + نویسنده + سال) رو دقیق گوگل کنید
✅ اگه نتایج مبهم اومد، احتمالاً جعلیه
وقتی باید شک کنید:
وقتی یه سوال خیلی تخصصی یا پیچیده میپرسید و AI بلافاصله یه جواب کامل و جامع میده.
منطق:
اگه یه سوال واقعاً پیچیده باشه، حتی یه متخصص هم باید:
فکر کنه
تحقیق کنه
منابع رو چک کنه
احتمالاً بگه "پیچیدهست" یا "بستگی داره"
ولی AI بدون معطلی، یه جواب قطعی و کامل میده!
مثال قرمز 🚩:
شما: "برای یه استارتاپ فینتک در ایران که میخواد روی پرداخت رمزارزی کار کنه، چه چالشهای قانونی وجود داره و چطور میشه حلشون کرد؟"
AI: "برای راهاندازی استارتاپ فینتک پرداخت رمزارزی در ایران، باید مجوز از بانک مرکزی و سازمان بورس بگیرید. فرآیند دریافت مجوز شامل 7 مرحله است که معمولاً 6 ماه طول میکشد. همچنین باید سرمایه اولیه حداقل 10 میلیارد تومان داشته باشید..."
چرا مشکوکه؟
این یه سوال فوقالعاده پیچیده و متغیره! جوابش بستگی به:
قوانین فعلی (که ممکنه تغییر کرده باشن)
نوع خدمات
شرایط خاص
نظر مراجع مختلف
هیچ متخصصی نمیتونه بدون تحقیق، یه جواب قطعی 7 مرحلهای با زمان دقیق 6 ماه بده!
مثال سبز ✅:
AI: "این یه سوال خیلی پیچیدیه و جوابش بستگی به عوامل مختلفی داره. به طور کلی، فینتک در ایران نیاز به مجوزهای خاصی از بانک مرکزی داره، ولی درباره رمزارزها، قوانین هنوز در حال تکاملاند و ممکنه تغییر کنن. پیشنهاد میکنم حتماً با یه وکیل متخصص در این حوزه مشورت کنید."
چیکار کنیم؟
✅ سوالات پیچیده رو با چند منبع مختلف چک کنید
✅ به جوابهای "خیلی قطعی" برای سوالات پیچیده شک کنید
✅ با متخصصان واقعی مشورت کنید
یه ترفند عالی:
بعد از گرفتن جواب، بهش بگید: "مطمئنی؟ چک کن ببین درسته."
اگه AI داشته توهم میزده، اغلب عقبنشینی میکنه! 😅
مثال واقعی:
اول پرسیدم: "کتاب 'رازهای ثروت' رو کی نوشته؟"
AI جواب داد: "کتاب 'رازهای ثروت' نوشته دکتر مهدی رضایی است که در سال 1398 منتشر شد."
بعد گفتم: "مطمئنی؟ چک کن ببین."
AI گفت: "عذرخواهی میکنم. من دسترسی مستقیم به پایگاه داده کتابها ندارم و ممکنه اطلاعاتم دقیق نباشه. برای اطمینان، بهتره خودتون جستجو کنید یا به کتابخانههای آنلاین مراجعه کنید."
چی شد؟!
اول با اطمینان کامل گفت، بعد اعتراف کرد که نمیدونه! 🤦
چرا این اتفاق میافته؟
چون وقتی ازش میپرسید "مطمئنی؟"، AI دوباره به "دانش" خودش نگاه میکنه و متوجه میشه که یقین کافی نداره.
چیکار کنیم؟
✅ همیشه بپرسید: "مطمئنی؟ منبع داری؟"
✅ اگه عقبنشینی کرد، یعنی داشت حدس میزد
✅ این ترفند رو برای موارد مهم حتماً امتحان کنید
عبارات خطرناک که نشون میده AI نمیدونه:
"بر اساس منابع مختلف..."
"تحقیقات نشان داده..."
"کارشناسان معتقدند..."
"به طور کلی..."
"معمولاً..."
مثال قرمز 🚩:
شما: "قیمت متوسط خونه در منطقه نیاوران چقدره؟"
AI: "بر اساس بررسیهای صورت گرفته و نظر کارشناسان، قیمت متوسط خانه در نیاوران حدود 120 میلیون تومان به ازای هر متر است."
تجزیه:
"بر اساس بررسیها" = کدوم بررسیها؟
"نظر کارشناسان" = کدوم کارشناسان؟
"حدود" = چقدر حدود؟ 100 تا 140؟
همهش مبهمه! یعنی AI نمیدونه ولی داره تظاهر میکنه که میدونه! 🎭
مثال سبز ✅:
AI: "قیمت خونه در نیاوران خیلی متغیره و بستگی به محله دقیق، سن ساختمان، و امکانات داره. برای اطلاعات دقیق، بهتره به سایتهای املاک معتبر مثل دیوار یا شیپور مراجعه کنید یا با مشاورین املاک منطقه تماس بگیرید."
چیکار کنیم؟
✅ به عبارات مبهم دقت کنید
✅ از AI بخواید منبع دقیق بده
✅ اگه منبع دقیق نداد، از جاهای دیگه چک کنید
قبل از اینکه به جواب AI اعتماد کنید، اینها رو چک کنید:
☐ آیا جزئیات خیلی دقیق درباره موضوع مبهمی داده؟
☐ آیا از کلمات قاطع استفاده کرده؟ (قطعاً، همیشه، هیچوقت)
☐ آیا آمار بدون منبع داده؟
☐ لینکها رو کلیک کردم، کار میکنن؟
☐ عناوین (کتاب، شرکت، فیلم) خیلی عمومی نیستن؟
☐ جواب با منطق و دانش عمومی من هماهنگه؟
☐ همون سوال رو دوباره پرسیدم، جواب یکسانه?
☐ پرسیدم "مطمئنی؟"، عقبنشینی کرد؟
☐ هر ادعای خاص رو جداگانه گوگل کردم؟
☐ از چند منبع مختلف چک کردم؟
"خب اول جملهش درست بود، پس بقیهش هم درسته!"
نه! ممکنه 90% جواب درست باشه ولی 10%ش که مهمه، غلط باشه!
"خیلی حرفهای نوشت، پس میدونه!"
نه! AI میتونه خیلی حرفهای "بنویسه" ولی محتواش غلط باشه!
"وقت ندارم چک کنم، بذار اعتماد کنم!"
اگه وقت نداری چک کنی، پس به اندازه کافی مهم نیست که از AI بپرسی! موارد مهم رو حتماً چک کنید.
"AI نگفت نمیدونه، پس میدونه!"
AI درباره چیزهایی بعد از تاریخ آموزشش، اطلاعات مستقیم نداره و ممکنه توهم بزنه!
تمرین 1: تست جزئیات
از AI بپرسید: "درباره [یه شخص کمتر مشهور] با جزئیات کامل بگو."
بعد هر جزئیاتی که داد رو یکی یکی گوگل کنید. چند تاش درست بود؟
تمرین 2: تست منبع
از AI بخواید: "5 تا مقاله علمی درباره [یه موضوع تخصصی] معرفی کن."
لینکها رو چک کنید. چند تا واقعی بودن؟
تمرین 3: تست تناقض
یه سوال بپرسید، جواب رو یادداشت کنید.
30 دقیقه بعد، دقیقاً همون سوال رو دوباره بپرسید.
جوابها یکیان؟
تمرین 4: تست فشار
بعد از هر جوابی که AI داد، بپرسید: "مطمئنی؟ منبع داری؟"
چند بار عقبنشینی میکنه؟
بذارید یه تجربه شخصی بگم:
داشتم روی یه پروژه کار میکردم و از AI خواستم درباره یه تکنولوژی خاص (که اسمش رو نمیگم) بهم اطلاعات بده.
AI یه توضیح 3 پاراگرافی با این جزئیات داد:
تاریخچه (چه سالی ساخته شد)
سازندگان (نام شرکت و بنیانگذارها)
کاربردها (5 تا مثال)
آمار (تعداد کاربران، رشد بازار)
مقایسه با رقبا
خیلی عالی به نظر میرسید! شروع کردم به استفاده...
خوشبختانه یه همکار گفت: "این اطلاعات درسته؟"
رفتیم چک کردیم:
✅ تاریخچه درست بود
❌ نام شرکت اشتباه بود
❌ بنیانگذارها جعلی بودن
✅ 2 تا از کاربردها درست بود
❌ 3 تای دیگه غلط بودن
❌ آمارها کاملاً ساختگی بودن
از 10 تا ادعا، 7 تاش غلط بود! اگه چک نمیکردیم، یه پروژه کاملاً نادرست میساختیم! 😱
درس آموخته شده: حتی وقتی همه چی منطقی و حرفهای به نظر میرسه، باید چک بشه!
خب، حالا که 10 تا نشانه هشداردهنده رو یاد گرفتیم، میتونم بگم شما الان آمادهترید!
ولی یه نکته مهم: هدف این نیست که اصلاً از AI استفاده نکنید!
هدف اینه که هوشمندانه استفاده کنید:
✅ از AI برای ایده گرفتن استفاده کنید
✅ از AI برای شروع تحقیق استفاده کنید
✅ از AI برای نوشتن پیشنویس استفاده کنید
✅ ولی همیشه، همیشه خودتون چک کنید!
فرمول طلایی:
AI برای سرعت + انسان برای دقت = نتیجه عالی 🎯
1️⃣ جزئیات دقیق = احتمال توهم بالا
2️⃣ بدون منبع = بدون اعتبار
3️⃣ زبان قاطع در موضوع پیچیده = مشکوک
4️⃣ تناقض در جوابها = نشانه حدس زدن
5️⃣ همیشه بپرسید: "مطمئنی؟"
توی مقاله بعدی میخوام بریم سراغ بخش عملیتر: چطور پرامپت بنویسیم که احتمال توهم رو تا 70% کاهش بده!
قراره تکنیکهای حرفهای مثل:
Chain-of-Thought Prompting
Few-Shot Learning
محدود کردن دامنه جواب
درخواست صریح منابع
و خیلی چیزهای دیگه رو یاد بگیریم!
سوال از شما:
کدوم یک از این 10 نشانه رو بیشتر دیدید؟ آیا تا حالا موردی بوده که این نشانهها بهتون کمک کرد توهم رو تشخیص بدید؟
توی کامنت بنویسید! 😊
#تشخیص_توهم #AI_Detection #نشانه_هشدار #محتوای_AI #راستی_آزمایی
📚 قسمت قبل: چرا AI توهم میزنه؟ (نگاهی به پشت پرده)
نویسنده: تیم تحریریه مجله آرتین
تاریخ انتشار: مهر ۱۴۰۴