ویرگول
ورودثبت نام
میلاد میرزاخانی
میلاد میرزاخانی
میلاد میرزاخانی
میلاد میرزاخانی
خواندن ۴ دقیقه·۱ ماه پیش

وقتی با هوش مصنوعی کار می‌کنید، مثل یک تصمیم‌گیرنده رفتار کنید، نه صرفاً یک کاربر ابزار

خیلی‌ها از هوش مصنوعی مولد برای نوشتن ایمیل، ساخت اسلاید، زمان‌بندی جلسات یا ثبت یادداشت استفاده می‌کنند. اینکه بتوانی این کارهای تکراری را به یک ابزار بسپاری، حس آزادی می‌دهد.
اما سؤال اینجاست: در ازای صرفه‌جویی در زمان، چه چیزی را از دست می‌دهیم؟


هوش مصنوعی می‌تواند فضا برای تفکر سطح‌بالا و تصمیم‌گیری عمیق فراهم کند، اما در عین حال ممکن است ما را وسوسه کند که همان تفکر را هم به آن بسپاریم.
چالش اصلی فقط قدرتمند بودن هوش مصنوعی نیست، بلکه قانع‌کننده بودن آن است. سریع می‌نویسد، مطمئن به نظر می‌رسد و با شتاب حرکت می‌کند. وقتی خسته‌ایم یا تحت فشاریم، خیلی راحت ممکن است بدون تأمل، تصمیم‌گیری را به آن واگذار کنیم.

این پدیده ظریف است اما تأثیرش عمیق.
به‌تدریج به جای خواندن بازخوردها، سراغ خلاصه‌های تولیدی AI می‌رویم. تیم‌ها بر اساس «روندهای» تولیدی AI استراتژی می‌چینند بدون اینکه منبع داده را بررسی کنند. مدیران مرور عملکرد کارکنان را به AI می‌سپارند و تصور می‌کنند لحنش بی‌طرف است، در حالی که ممکن است نباشد.

این‌ها نشانه ضعف رهبری نیستند؛ بلکه نشانه‌اند از اینکه چقدر سریع بخش انسانی تصمیم‌گیری—یعنی ارزش‌ها و قضاوت‌هایی که به انتخاب‌هایمان معنا می‌دهند—می‌تواند ناپدید شود.


🎯 رهبری در عصر هوش مصنوعی

رهبری خوب هرگز به معنی دانستن همه پاسخ‌ها نبوده است. اما همیشه نیازمند تأمل، شجاعت و وضوح هدف است—ویژگی‌هایی که هیچ هوش مصنوعی‌ای نمی‌تواند جایگزینشان شود.

هرچه این فناوری قدرتمندتر و سریع‌تر می‌شود، تصمیمات پیچیده‌تر بیش از همیشه نیازمند کند شدن و تفکر عمیق‌تر هستند.


⚓ چهار لنگر رهبری در عصر هوش مصنوعی

من به عنوان کسی که در زمینه تصمیم‌گیری و حل مسئله پیچیده کار می‌کنم، بارها دیده‌ام که افراد به‌جای اندیشیدن، تفکر را به AI واگذار می‌کنند.
به همین دلیل، مجموعه‌ای از اصول ساده طراحی کردم که به آن‌ها می‌گویم «لنگرهای رهبری در عصر هوش مصنوعی» — چهار اصل ذهنی که کمک می‌کنند در جایگاه تصمیم‌گیرنده باقی بمانید، نه صرفاً کاربر ابزار.

این لنگرها قانون نیستند؛ یادآورهایی ذهنی‌اند برای حفظ آگاهی و کنترل، حتی زمانی که ماشین با سرعت و اطمینان در حال پیشروی است.


۱️⃣ لنگر اقتدار (Authority Check)

هوش مصنوعی برای شروع ایده‌پردازی عالی است، اما در نهایت شما صاحب تصمیم هستید.
اجازه ندهید پیش‌نویس AI، نسخه نهایی شما شود.

مثل یک توله‌سگ هیجان‌زده که جلوتر از صاحبش می‌دود — در نهایت این شما هستید که افسار را در دست دارید.

پرسش‌هایی که باید از خود بپرسید:

  • آیا به نتیجه‌ای که می‌خواستم رسیدم؟

  • آیا مشکل واقعی را حل کردم؟

  • آیا لحن و زمینه‌ی متن با هدف من هماهنگ است؟

  • AI چه چیزهایی را نادیده گرفته یا فرض کرده است؟

📌 نمونه:
«پریا» مدیر ارشد فناوری، از AI خواست پیش‌نویس ایمیلی برای مشتری ناراضی‌اش بنویسد. متن آماده، مؤدبانه و حرفه‌ای بود، اما پریا مکث کرد. بعد از خواندن دوباره، دید لحن پیام سرد است و به احساسات مشتری توجه ندارد.
او پاراگرافی اضافه کرد تا همدلی و درک متقابل را نشان دهد—و همین تغییر کوچک، همه‌چیز را متفاوت کرد.


۲️⃣ لنگر هدف (Purpose Check)

AI بر اساس احتمال کار می‌کند، اما شما بر اساس هدف.
هوش مصنوعی نمی‌داند چرا تصمیم می‌گیرید، فقط حدس می‌زند دیگران چه کرده‌اند.

پرسش‌هایی برای بازنگری هدف:

  • هدف کوتاه‌مدت من چیست؟

  • هدف بلندمدت من چیست؟

  • آیا خروجی AI با این اهداف هم‌راستاست؟

📌 نمونه:
پریا پیش از جلسه با مشتری، از AI برای تهیه نکات صحبت استفاده کرد اما چند دقیقه‌ای وقت گذاشت تا دوباره به مأموریت خود فکر کند.
هدف کوتاه‌مدتش حفظ قرارداد بود، اما هدف بلندمدتش حفظ رابطه‌ی همکاری بلندمدت.
در نتیجه، به جای تأکید بر دشواری درخواست مشتری (آن‌طور که AI پیشنهاد داده بود)، با پرسش همدلانه شروع کرد:

«می‌تونید برام توضیح بدین موفقیت از نظر شما چه شکلیه؟»


۳️⃣ لنگر مسئولیت‌پذیری (Accountability Check)

حتی اگر ابزار مفیدی دارید، شما پاسخ‌گوی نتایج هستید.
وقتی تصمیم اشتباه بگیرید، AI نیست که باید در جلسه‌ی هیئت‌مدیره توضیح بدهد—شما باید بدهید.

پرسش‌هایی که باید بپرسید:

  • آیا پشت این تصمیم می‌ایستم؟

  • اگر از من سؤال شود، می‌توانم ازش دفاع کنم؟

📌 نمونه:
در جلسه، مشتری پریا به یکی از پیشنهادها واکنش منفی نشان داد. پریا متوجه شد آن پیشنهاد تقریباً همان جمله‌ای بود که AI نوشته بود و بیشتر به نفع شرکت خودش بود تا مشتری.
او صادقانه گفت:

«حق با شماست. این پیشنهاد در راستای نیاز شما نیست. اجازه بدین گزینه‌ای پیشنهاد بدم که بهتر باشه.»

همین صداقت، اعتبارش را بالا برد.


۴️⃣ لنگر راستی‌آزمایی (Truth Check)

AI همیشه با اطمینان حرف می‌زند، حتی وقتی اشتباه می‌کند.
داده‌هایش ممکن است ناقص، قدیمی یا حتی ساختگی باشند.

پرسش‌هایی که باید بپرسید:

  • آیا این اطلاعات قابل راستی‌آزمایی است؟

  • آیا دیدگاه دیگری درباره‌ی مسئله وجود دارد؟

  • این اطلاعات چطور ممکن است غلط باشد؟

📌 نمونه:
پریا از AI خواست مشکلات مشابه در صنعت را لیست کند تا ببیند آیا سایر مشتریان هم همین مشکل را دارند یا نه.
پاسخ سریع و قاطع بود، اما وقتی او بررسی کرد، دید بعضی داده‌ها مربوط به دو سال پیش‌اند و بعضی دیگر شایعه‌ای از وبلاگ‌های غیرمعتبر.
اگر همان خروجی را به مدیرش می‌داد، ممکن بود اعتبارش آسیب ببیند.


🧩 در نهایت: رهبری یعنی کند شدن و اندیشیدن

پریا با استفاده از این چهار لنگر، توانست سرعت وسوسه‌انگیز هوش مصنوعی را مهار کند و دوباره مرکز تصمیم‌گیری را به ذهن خودش برگرداند.

هوش مصنوعی ابزاری شگفت‌انگیز است، اما نه جادوست و نه همه‌چیزدان.
می‌تواند ما را در تصمیم‌گیری یاری کند، اما ارزش‌ها، زمینه‌ها و روابط انسانی را نمی‌فهمد.

اجازه ندهید ماشین جای شما را بگیرد.
این چهار لنگر، به شما کمک می‌کنند در کنترل بمانید، تفکر خودتان را شفاف‌تر و عمیق‌تر کنید، و تصمیم‌هایی بگیرید که واقعاً از آنِ شما هستند.


🌍 هوش مصنوعی معمولاً چیزهایی را تکرار می‌کند که قبلاً دیده است.
اما انسان‌ها هستند که می‌توانند ایده‌هایی بیافرینند که دنیا تا به حال ندیده است. 💡

https://hbr.org/2025/10/when-working-with-ai-act-like-a-decision-maker-not-a-tool-user?ab=HP-hero-latest-2
هوش مصنوعیخلاقیت
۲
۱
میلاد میرزاخانی
میلاد میرزاخانی
شاید از این پست‌ها خوشتان بیاید