دکتر جمال صوفیه
دکتر جمال صوفیه
خواندن ۲۰ دقیقه·۳ ماه پیش

آستانگی خودکار: توهمات هوش مصنوعی به عنوان کاتالیزور نهایی برای خلاقیت بی پایان در آینده پژوهی و آینده نگاری

نویسندگان :

مارکو بولو ، دنیس دراگ

محقق، آکادمی اوقات فراغت و رویدادها، دانشگاه علوم کاربردی بردا، هلند

کارگردان آینده‌نگاری، شکل دادن به فردا، خلیج هاوک، نیوزلند

ترجمه و تدوین : دکتر جمال صوفیه



چکیده:

این مقاله دانشگاهی به پارادایم «آستانگی خودکار» (Automated Liminality) می پردازد و بررسی می کند که چگونه «توهمات» (hallucinations)ناشی از هوش مصنوعی ممکن است به عنوان سکوی پرشی برای خلاقیت بی نظیر در آینده نگاری و آینده پژوهی عمل کند. نویسندگان مروری تاریخی بر هوش مصنوعی و نقش در حال تکامل آن، به ویژه با تمرکز بر مدل‌های زبانی بزرگ(LLM) و توانایی آن‌ها برای ایجاد مسیرهای جدید در تولید دانش آینده ارائه می‌کنند. آنها مقاومت در زمینه آینده‌نگاری در برابر LLMها را ترسیم می‌کنند و سه راه تغییردهنده را پیشنهاد می‌کنند که در آنها این ابزارها می‌توانند به ایجاد فضای محدود کمک کنند: 1- غیریت یا دیگر بودنِ ذاتیِ LLM، 2- ظرفیت آنها برای ترکیب داده‌های متفاوت 3- ساده‌سازی فرآیند آینده‌نگاری برای ترکیب جمعیتی گسترده‌تر.

آینده پژوهی و آینده نگاری، بین رشته ای و ذاتاً آستانه ی یا بینابینی و مرزی (Liminal)شناسایی می شوند. از این رو، روش شناسی سیستماتیک و تفکر شهودی به یک اندازه ارزش دارد. این مقاله با ارائه دیدگاهی متعادل از تأثیر هوش مصنوعی بر مشاغل و تقویت قابلیت‌های انسانی، روایت بیکاری فناوری را به چالش می‌کشد. از طریق تجزیه و تحلیل انتقادی، این مقاله نشان می دهد که "توهمات" یا اشتباهات وپاسخ های نادرست LLM ها را می توان به عنوان سناریوهای پیش بینی نشده ای که سهم مهمی در تصور آینده ارائه می دهد، دوباره تعریف کرد. علاوه بر این، LLM ها را به عنوان موجودیت های «دیگر» بررسی می کند که اگرچه انسانی نیستند، اما می توانند تفکر خلاق را بدون محدودیت های انسانی تسریع کنند.

با توجه به دموکراتیزه کردن فرآیند آینده‌نگاری، ادغام هوش مصنوعی برای تسهیل مشارکت گسترده، ترویج تفکر انتقادی و خلاق و تسریع فرآیند، برای محققان و دانشجویان، نوید بخش نشان داده شده است. نویسندگان با استدلال برای روایتی که بر عامل انسانی در آینده LLM متمرکز است، از نقش حیاتی آینده پژوهان در قالب بندی این ابزارها به عنوان مکمل – و نه به عنوان جایگزینِ- عنصر انسانی در آینده نگاری استراتژیک دفاع می کنند.

کلید واژه ها

مدل های زبانی بزرگ، آینده پژوهی، خلاقیت، بیکاری فناوری، همکاری انسان و هوش مصنوعی.

مقدمه:

با این مشارکت، نویسندگان استدلال می‌کنند که هوش مصنوعی (AI) و به‌ویژه هوش مصنوعی مولد مانند مدل‌های زبانی بزرگ (LLM) می‌توانند با افزودن راه‌های جدید برای ایجاد دانش و بینش در مورد آینده به آینده‌ پژوهی و آینده‌نگاری حتی آستانه ای تر و مرزی ترکمک کنند. از آنجایی که هنوز مقداری مقاومت در برابر استفاده از LLM در حوزه آینده‌پژوهی و آینده‌نگاری وجود دارد، ما قبل از بررسی سه حالت ایجاد فضای آستانه ای که توسط LLM‌ها فعال شده‌اند، به دیدگاه تاریخی هوش مصنوعی و همچنین کاربرد آن در این زمینه نگاه می‌کنیم: توانایی اتصال داده‌های متفاوت و اینکه چگونه می‌توانند فرآیند آینده‌نگاری را برای ترکیب جمعیتی بزرگ‌تر ساده کنند.

آینده پژوهی و آینده نگاریحوزه های چند رشته ای نسبتاً جدید هستند که از علوم انسانی تا طراحی، در حال گذار دائمی هستند که ممکن است به صورت ذاتاً آستانه ای در فرآیند پیچیده کشف دانش در مورد آینده ، مفهوم سازی شوند (توماسن، 2014). که حداقل برای ایجاد مفاهیم مشترک بر اساس فرضیه ها و سناریوهای مختلف استفاده و مفهوم سازی می شوند(Walker, 2019) . این حوزه ای است که در آن تجزیه و تحلیل سیستماتیک ممکن است به اندازه شهود و کاریزمای فردی به خروجی ارزشمند و نتایج معنادار کمک کند (Bevolo, 2023- : Danemann et al., 2023). اگرچه گاهی اوقات ممکن است روش شناختی مشابهی به کار گرفته شود، اما بر خلاف علوم تاریخی (استالی، 2007) یا علوم سیاسی (جورج و بنت، 2005) ، آینده پژوهی روی حوزه ای کار می کند که وجود ندارد، بنابراین ردیابی عَقَبه یا گذشته (جورج و بنت، 2005) یا تأیید اسنادی مرتبط با حقایق فرضی برای آینده پژوهان امکان پذیر نیست.


مروری کوتاه بر دیدگاه تاریخی هوش مصنوعی و آینده نگاری

از زمان انتشار عمومی ChatGPT 3.5 در سال 2022، رسانه های آنلاین شاهد تکرار مجدد بحث ها در مورد بیکاری تکنولوژیکی بوده اند (کینز، 1930). در حالی که ربات‌ها همچنان جایگزین انسان‌ها در بخش تولید می‌شوند، شواهدی وجود دارد که تأثیر کلی روبات‌ها و هوش مصنوعی بر افراد ممکن است با توجه به افزایش دستمزدهای محلی مثبت باشد (چانگ، 2023). به همین ترتیب، LLM ها می توانند در افزایش نیروی کار تولید نقش داشته باشند(Kernan Freire et al., 2023).

یک نظرسنجی اخیر از گروه Adecco نشان می دهد که 41٪ از 2000 مدیران ارشد یا C-suite که مورد پرسش قرار گرفته بودند، گفته اند که نیروی کار آنها به دلیل هوش مصنوعی طی 5 سال آینده (2024) کاهش می یابد. با این حال، مجمع جهانی اقتصاد افزایش خالص مشاغل را به دلیلLLM ها (2023) انتظار دارد. تأثیرات روی مشاغل یقه سفید، در حالی که به طور بالقوه ویرانگر است، می تواند با تغییر در روایت، تبدیل به بهبود کار انسان به جای جایگزینی آن شود. (Yifei، 2023. بنابراین، نگرانی‌های مربوط به بیکاری تکنولوژیکی ممکن است هنوز زودرس و ناپخته باشد، به‌ویژه این که کمتر در مورد قابلیت‌های تکنولوژیکی هستند و بیشتر در مورد تمایل انسان برای دستیابی به حداکثر سود بحث می شود (Ebert, 2023).

آینده پژوهان استراتژیک نیز از این بحث مصون نمانده اند. نظرات در مورد اینکه آیا هوش مصنوعی می تواند جایگزین آینده پژوهان شود یا خیر در لینکدین، لیست سرورز(Listservers) و سایر رسانه های آنلاین منتشر شده است. نویسندگان استدلال می کنند که آینده پژوهان، در حالی که هیچ نیاز مستقیم یا تعهد حرفه ای برای پذیرش هوش مصنوعی به عنوان یک ابزار کاری ندارند، مسئولیت دارند حداقل روایت های جایگزین را برای نحوه استفاده از هوش مصنوعی به عنوان ابزار توسط انسان ها به جای جایگزینی برای انسان ها به اشتراک بگذارند.

اتوماسیون در اوایل سال 2015 توسط حداقل یک پلت فرم آنلاین که پایش یا اسکن افق و چشم انداز را تا حد زیادی خودکار می کرد، به حوزه آینده نگاری معرفی شد(Kehl et al., 2020). این شرکت در سال 2003 برای آینده‌نگاری مشترک راه‌اندازی شد و از سال 2015 هوش مصنوعی را به روش‌های مختلف به کار می‌برد. از طریق خودکارسازی تحقیقات اساسی آینده‌ پژوهی/آینده‌نگاری، این پلتفرم نحوه انجام این فرآیند را تقویت کرد (Fergnani & Jackson, 2019) .

در سال 2022، این پلتفرم خدمات جدیدی را در فضای هوش مصنوعی مولد با برنامه های کاربردی برای همکاری انسانی راه اندازی کرد. بنابراین، از فناوری های مختلفی برای سازماندهی تفکر در مورد آینده استفاده می کند. همان پلتفرم به جای تلاش برای جایگزینی فرآیند یا افرادی که این فرآیند را انجام می دهند، به کار بر روی تقویت چگونگی انجام فرآیند ادامه می دهد.

یکی از نویسندگان درگیر بررسی انتقادی نحوه اتصال سیستم‌های یادگیری ماشینی (ML) به فرآیندهای طراحی برای Futures Design بود و به این نتیجه رسید که هوش مصنوعی ممکن است برای پایش مناسب باشد (Bevolo & Amati, 2020) ، با این حال - در زمان آن تجزیه و تحلیل - هوش مصنوعی مولد هنوز نمی توانست حلقه های بازخورد را بین نمونه سازی اولیه و چرخه های بعدی مراحل در فرآیندهای طراحی آینده فعال کند، به ویژه در مورد پروژه های کاربردی. با این حال، سرعت توسعه و کیفیت بهبود در طراحی و ارائه آینده‌نگاری خودکار نیاز به نظارت سیستماتیک و منظم دارد.

با توجه به ظهور ChatGPT و سیستم‌های مشتق شده از آن ، رابطه بین آینده‌نگاری خودکار و انسانی و اکتشاف آینده، حوزه‌ای از آستانه بین کارایی دیجیتال و شهود شخصی است، زیرا سؤال اساسی این است که آیا LLM می‌تواند مکمل یا حتی جایگزین متخصصان آینده و محققان آینده‌نگر باشد. در نهایت، نویسندگان بر این باورند که این امکانِ درستی، برای کاوش نیست، زیرا هوش مصنوعی را در دوگانگی بینش‌های دیستوپیایی (ویران شهری یا آخرالزمانی) و آرمان‌شهری که در دوره‌های تاخیر فرهنگی رایج است، چارچوب می‌دهد (فیشر و رایت، 2006). مهمتر از آن، این دوگانگی به طور غیر ضروری گفتگوی فلسفی را محدود خواهد کرد (آلبرشت، 2017).

با نگاهی به متخصصان و مشاوران آینده‌نگاری، سؤالات فوری‌تر، حولِ محورِ ارزشی است که، آینده‌پژوهان استراتژیک می‌توانند ازLLM کسب کنند. البته این بستگی به فرآیندهای طراحی و فرمت های تحویل و در نهایت بستگی به هزینه های منطقی در مقابل منافع برای مشتریان دارد. با تمرکز بر این چالش‌ها، یک فرض ضروری این است که آینده‌پژوهان بخشی از فرآیند باقی خواهند ماند و در عین حال ارزش رهبری انسانی را در این فرآیند تأیید می‌کنند.

خودکار کردن پیوندها و اتصالات

همانطور که در نشریه بررسی شده توسط یکی از نویسندگان Bevolo & Amati، 2020 بررسی شد، سیستم‌های ML قبلاً ارزش خود را در پایش نمودها و تولید خوشه‌های روند با افزایش دقت و به صورت معنی‌داری ثابت کرده بودند. با این حال، LLM ها اطلاعاتی را تولید می کنند که یا غیرمنطقی یا نادرست است، زیرا آنها بر روی تازگی متمرکز هستند(Rawte et al., 2023؛ Zhang et al., 2023). این توهمات بر دقت تأثیر منفی می گذارد (موکرجی و چانگ، 2023)LLM ها هیچ هدف زبانی ندارند زیرا در واقع باهوش نیستند و ورودی ها یا حتی خروجی هایشان را درک نمی کنند(O’Neill & Connor, 2023). بنابراین، خروجی می تواند مبهم باشد زیرا دستگاه به حد مفید خود رسیده است. حتی زمانی که آنها دقیق باشند، خروجی ممکن است کاری جز خلاصه کردن داده های آموزشی خود انجام ندهد، زیرا سودمندی را به تازگی ترجیح می دهد. اگر LLM بیش از حد بر سودمندی تمرکز کند، خروجی دقیق است اما از نظر فکری محرک نیست (موکرجی و چانگ، 2023).

این محدودیت‌ها اغلب به‌عنوان «خطا» بررسی شده‌اند، شاید منطقی پوزیتیویستی (اثبات گرایانه) و خطی در معرفت‌شناسی تحقیق اتخاذ کنند. با این حال، همانطور که توسط یکی از نویسندگان در مقاله ESOMAR (Bevolo & Price، 2006، نشان داده شده است، در آینده پژوهی و آینده نگاری "خطاهای" ظاهری ممکن است منجر به سناریوها و مفاهیم پیش بینی نشده شود، بنابراین نقش کلیدی در ارائه ارزش واقعی ایفا می کند به عنوان مثال، قوهای سیاه (نسیم طالب) . این به این دلیل است که عمل تجسم آینده به طور ذاتی شامل لزوم پذیرش پارادوکس ها در حین کاوش در ناشناخته ها می شود.

به همین ترتیب، محدودیت‌های دقت می‌تواند تأثیر مثبتی بر خلاقیت بگذارد، و LLM می‌تواند مقالاتی را تولید کند که همه چیز را به روش‌های جذابی با هم مخلوط می‌کند. برخی از افراد خروجی ماشین را به عنوان شبه خلاقیت تفسیر می کنند (رانکو، 2023)، اما چنین دیدگاه هایی ذاتاً مغرضانه هستند (Magni et al., 2023).

معاوضه دقت با خلاقیت یکی از دلایل این رشته برای استفاده از LLM برای ابزارهای همکاری است. انسان ها می توانند به طور مشترک دقت خروجی را تأیید کنند و در عین حال جزئیات بیشتری را در دنیای واقعی اضافه کنند. همکاران انسانی سپس به همکاران انسان ماشین تبدیل می‌شوند تا «پیکره های بزرگ را برای تحقیق در دسترس قرار دهند» (Feuston & Brubaker, 2021). تحقیقات بیشتری با توجه به کاربرد خلاقیت ماشینی در افزایش خلاقیت انسان به ویژه در زمینه همکاری انسانی باید انجام شود (Seeber et. al, 2020) زیرا آینده‌ی آینده پژوهی و آینده نگاری در این شکل جدید گفتگوی فعال نهفته است. سنتز غیرمنطقی توسط سیستم های خودکار LLM و خلاقیت انسان. در واقع، این محبوب‌ترین ویژگی تمسخر آمیز LLM، یعنی توهم‌ها، است که بیشترین سود را برای آینده‌نگاری و محدودیت‌های آینده‌نگاری ارائه می‌کند، زیرا آنها متفاوت بودن متمایز LLM را نشان می‌دهند.


ماشین ها به عنوان دیگری یا غیر برای آستانگی

خوش‌بین‌های فنی از ما می‌خواهند که بشریت را بیشتر از طبیعت جدا کنیم تا با ماشینی برای پایان دادن به مرگ یکی شویم (بوستروم، 2008؛ ورنارت، 2022). با این حال، با انجام این کار، بشریت عاملیت را به ماشین‌هایی تسلیم می‌کند که هیچ عامل مستقلی از انسانیت ندارند (دیگوئز، 2023). در واقع، برخی از گروه‌های فنی-خوش‌بین را می‌توان ضد بشری در نظر گرفت (Sagikyzy & Uyzbayeva, 2024). در همین حال، بدبینان فنی تأثیرات منفی هوش مصنوعی را برجسته می کنند (Tunç & Öcal، 2023؛Wernaart، 2022. با این حال، بین این افراط‌ها، گروهی معتدل از فناوری گریزان مدرن، قرار دارند که خواستار استفاده مسئولانه‌تر از فناوری‌های دیجیتال هستند (راچ، 2019).

کل این طیف با استعاره های انسانی مرتبط است (لی و سو، 2021). هم فن‌آوران خوش‌بین و هم بدبین‌ها از هوش مصنوعی به گونه‌ای صحبت می‌کنند که گویی عاملیتی را برای عمل مستقل در جامعه دارد. اتخاذ این استعاره ها نظریه تاخیر فرهنگی را نشان می دهد که در حال حاضر بر روی LLM ها کار می کند زیرا آنها امیدها و ترس های گروه های اجتماعی مختلف را نشان می دهند (فیشر و رایت، 2006).

در حالی که هوش عمومی مصنوعی(AGI) اغلب با ویژگی های انسانی مانند رنج مصنوعی، شخصیت می یابد، LLM ها ابزار هستند و جایگزینی برای هوش انسانی نیستند (Chubb et al., 2021). نکته مهمتر، این استعاره ها واقعیت دیگری بودن را که هوش مصنوعی به تجسم خود ادامه می دهد نادیده می گیرد.

با وجود اینکه طبیعت متفاوت است(Scarano, 2024)، فناوری به طور کلی وLLM ها به طور خاص ذاتاً چیز دیگری هستند (Olivier 2021). آنها انسان نیستند، اما می توانند طوری رفتار کنند که انگار هستند. آنها آنچه را که می خوانند یا می نویسند نمی فهمند و اغلب به گونه ای نتیجه گیری می کنند که سازندگان آنها کاملاً نمی فهمند (کوئکلبرگ، 2020). بنابراین، نویسندگان استدلال می‌کنند که ما باید روایت کلی را دوباره چارچوب‌بندی کنیم تا آنها را به این شکل، به‌عنوان ماشین‌هایی با عامل برنامه‌ریزی شده انسانی در نظر بگیریم، حتی اگر برخی سناریوها نشان دهند که می‌توانند بیشتر از آن شوند (گبرو و تورس، 2024).

با این حال، با انسان نبودن و در نتیجه محدود نشدن توسط قضاوت، احساسات یا اراده سیاسی؛ LLM ممکن است به بررسی مسائلی که معمولاً شرکت کنندگان در کارگاه با آن مواجه می شوند کمک کند (مانند بلوک های ایده، تفکر خطی، دیدگاه مغرضانه، سیاست تیم)، و به پزشکان، محققان و مشتریان این امکان را می دهد که سریعتر شکاف های دانش غیرمنتظره را شناسایی کنند، یا نسبت ناشناخته ها به شناخته شده ها را افزایش دهند. در مقابل شناخته شده ها در نهایت، با توجه به ماهیت فعلی VUCA واقعیت روزمره ما ( شرایط ناپایدار، نامطمین، گیج کننده و مبهم دنیای امروز)، مطمئناً ممکن است به کشف مجهولات ناشناخته کمک کند و حتی به دسته بندی ناشناخته ها (یعنی مفروضات) کمک کند.

LLM ها همچنین فضایی بین پیش بینی نابغه و پیش بینی متخصص را اشغال می کنند. LLM ها با میانگین گیری کلمات استفاده شده توسط منابع متعدد عمل می کنند. بنابراین، می توان از آنها به عنوان تجمعات عمومی متخصصان مختلف استفاده کرد. نویسندگان استدلال می‌کنند که حتی این کثرت مجازی هنوز بهتر از نزدیک‌بینی یا ناتوانی در تولید هر ایده‌ای است، مثلاً در زمینه بلوک‌های خلاقانه در کارگاه‌ها یا در نوشتار. همه چیز بستگی به طرز فکری دارد که افراد هنگام استفاده از دیگری بودن سیستم های خودکار خواهند داشت. با این حال، بزرگترین ارزش توهمات و غیریت LLM، ارزش آنها برای آینده نگری دموکراتیک است.

دموکراتیک کردن روند آینده نگاری

موانع زیادی برای نوآوری مدل کسب و کار وجود دارد و آینده نگاری استراتژیک به عنوان مسیری رو به جلو از طریق موانع شناسایی شده پیشنهاد شده است (مقدمراد و علی، 2024). با این حال، آینده نگری سازمانی موانع بسیاری دارد (مورتنسن و همکاران، 2021). هوش مصنوعی ممکن است با منحرف کردن کاربران از تعصبات کوتاه مدت آنها و در عوض تمرکز بر تعامل آنها با فرآیند آینده نگاری، به رفع این موانع برای آینده نگاری و در نتیجه نوآوری کمک کند.

از دیدگاه کارگاه آینده‌نگاری، هوش مصنوعی می‌تواند برای کاهش زمان لازم برای گذراندن فرآیند آینده‌نگاری استفاده شود. بنابراین، می‌تواند از تسهیل‌کننده‌ها حمایت کند تا افراد بیشتری را برای دموکراتیک کردن بیشتر فرآیند مشارکت دهند. هوش مصنوعی همچنین می‌تواند از تسهیل‌کننده‌ها پشتیبانی کند تا کارگاه را در زمان واقعی بر اساس نیازهای شرکت‌کنندگان در کارگاه تنظیم کنند.

یکی از جنبه های کلیدی استفاده از هوش مصنوعی در طول تسهیل، استفاده از تفکر انتقادی است. از آنجایی که انسان‌ها معمولاً ارزش خروجی LLM را حتی زمانی که خروجی آن به طور عینی بهتر از انسان است را کاهش می‌دهند (یین و همکاران، 2024)، شرکت‌کنندگان در یک کارگاه بیش از فرآیند آینده‌نگری استراتژیک، تفکر انتقادی در مورد خروجی هوش مصنوعی دارند.

متحد کردن شرکت‌کنندگان با تفکر انتقادی علیه هوش مصنوعی می‌تواند به مشارکت آنها در فرآیند آینده‌نگاری مبتنی بر هوش مصنوعی کمک کند. بنابراین، اگر تسهیل‌کننده فهرستی از گرایش‌ها تهیه کند و از شرکت‌کنندگان بخواهد موارد موجود در فهرست را ارزیابی کنند، شرکت‌کنندگان ممکن است زمانی که بدانند روندها توسط یک هوش مصنوعی و نه یک انسان ایجاد شده‌اند، انتقاد بیشتری را ابراز می‌کنند. حتی ممکن است یک تسهیل‌کننده با صلاحیت، مفروضات و سوگیری‌های شرکت‌کنندگان را با استفاده از سوگیری‌های آشکار در خروجی LLM یا از طریق پرسش از پاسخ‌های شرکت‌کننده در برابر معیار عینی خروجیLLM کشف کند.

تنها سیاستی که در انتقاد از هوش مصنوعی وجود دارد، منافع شخصی افراد است که نشان دهد از ماشین هوشمندتر هستند. بنابراین، شرکت‌کنندگان بیشتری ممکن است با خروجی دستگاه درگیر شوند. سپس تسهیل‌کننده می‌تواند شرکت‌کنندگان را با پرسیدن اینکه فهرست چگونه باید ویرایش شود و چه چیزی اضافه شود، به تفکر خلاق سوق دهد.

روند مشابهی را می توان با تولید سناریو دنبال کرد و در عین حال محتوایی را تولید کرد که به طور خاص با موقعیت زودگذر کارگاه مرتبط باشد،. تسهیل‌گر می‌تواند از شرکت‌کنندگان در مورد اینکه چه چیزی را باید جستجو کرد و چگونه آن را جستجو کرد و مشارکت‌کنندگان را بیشتر در فرآیند جستجو وارد کند ، از افراد جمع آوری شده در آن گروه در یک زمان خاص کمک بخواهد. به همین ترتیب، هوش مصنوعی می‌تواند بسیاری از جنبه‌های تحلیلی کارگاه‌ها را در طول کارگاه مدیریت کند تا زمان مشارکت را با ایجاد دانش مشغول نگه دارد (Dufva & Ahlqvist, 2015).

این ترکیب تفکر انتقادی با تفکر خلاق با انتقال شرکت‌کنندگان بین حالت‌های مختلف تفکر، فضایی را برای فضای آستانه ای ایجاد می‌کند.

نتیجه گیری

اگرچه آینده LLM ها با انواع سناریوهای قابل قبول هنوز در حال توسعه است، نویسندگان معتقدند که آینده پژوهان باید این آینده ها را با تمرکز بر عامل انسانی، مسئولیت پذیری و پاسخگویی ارتباط برقرار کنند. با در نظر گرفتن کار پلتفرم هوش مصنوعی، با در نظر گرفتن اجتناب‌ناپذیری تکامل بیشتر آن، نویسندگان در اینجا به این نتیجه می‌رسند که یکی از راه‌هایی که LLMها روند آینده‌نگری را تقویت می‌کنند، محدود کردن این فرآیند است، یعنی بین خلاقیت انسان و فرآیندهای خودکارLLMها آینده‌نگاری را قادر می‌سازند تا در مواجهه با شرایط فعلی و آتی آستانه ای و به شدت بینابینی، با بهره گیری از غیر و دیگر بودن هوش مصنوعی، به تدریج انعطاف‌پذیرتر، پیش‌بینی‌کننده‌تر و مؤثرتر شوند، همچنین کمک می کنند تا ارتباطات متفاوت را خودکار ‌کنند و فرآیند آینده‌نگاری را برای تازه‌کاران ساده‌تر می‌کنند.

References

Adecco Group. (2024). Leading through the great disruption: How a human-centric approach to AI creates a talent advantage. Retrieved April 12, 2024, from https://discover.adeccogroup.com/Business-Leaders-2024_Global-Report

Andersen, Dannemand, et al. (2023) Technology Foresight for Public Funding of Innovation: Methods and Best Practices, Vesnic Alujevic, L., Farinha, J. and Polvora, A. editor(s), Publications Office of the European Union, Luxembourg, doi:10.2760/759692, JRC134544.

Bevolo, M. (2023-a). Individual intuition and communicative charisma as enablers of futures and envisioning: “genius forecasting” versus “forecasting geniuses”, pp. 18-26 in: Dannemand Andersen, P., Bevolo, M., Ilevbare, I., Malliaraki, E., Popper, R. and Spaniol, M.J., Technology Foresight for Public Funding of Innovation: Methods and Best Practices, Vesnic Alujevic, L., Farinha, J. and Polvora, A. editor(s), Publications Office of the European Union, Luxembourg, 2023, doi:10.2760/759692, JRC134544.

Bevolo, M. (2023-b). Design Futures in A Wider Context: Historical Reflections, Potential Directions, and Challenges Ahead. International Journal of Design and Allied Sciences, 2 (2), 27-41.

Bevolo, M., & Amati, F. (2020). The Potential Role of AI in Anticipating Futures from a Design Process Perspective: From the Reflexive Description of “Design” to a Discussion of Influences by the Inclusion of AI in the Futures Research Process. World Futures Review, 12(2), 198-218. https://doi.org/10.1177/1946756719897402

Bevolo, M. & Price, N. (2006). Towards the evolutions and revolutions in futures research. ESOMAR BrandMatters conference, New York, March 2006.

Chubb, J, et al. (2021) Speeding up to keep up: exploring the use of AI in the research process. AI Soc. 2022;37(4):1439-1457. doi: 10.1007/s00146-021-01259-0. PMID: 34667374; PMCID: PMC8516568.

Coeckelbergh, M. (2020). Artificial intelligence, responsibility attribution, and a relational justification of explainability. Science and engineering ethics, 26(4), 2051-2068.

Datta, T., & Dickerson, J. P. (2023). Who’s Thinking? A Push for Human-Centered Evaluation of LLMs using the XAI Playbook. arXiv preprint arXiv:2303.06223.

Dufva, M., & Ahlqvist, T. (2015). Knowledge creation dynamics in foresight: A knowledge typology and exploratory method to analyse foresight workshops. Technological Forecasting and Social Change, 94, 251-268.

Ebert, N. (2023). From Keynes’ Possibilities to Contemporary Precarities: Reflections on the Origins of Our Economically and Politically Precarious Times. Sociology Lens, 36(2), 185-197.

Fergnani, A., & Jackson, M. (2019). Extracting scenario archetypes: A quantitative text analysis of documents about the future. Futures & Foresight Science, 1(2), e17.

Feuston, J. L., & Brubaker, J. R. (2021). Putting Tools in Their Place: The Role of Time and Perspective in Human-AI Collaboration for Qualitative Analysis. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2), 1-25.

Fisher, D. R., & Wright, L. M. (2006, June 23). On Utopias and Dystopias: Toward an Understanding of the Discourse Surrounding the Internet. Journal of Computer-mediated Communication. https://doi.org/10.1111/j.1083-6101.2001.tb00115.x

Gebru, T., & Torres, É. P. (2024). The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. First Monday.

George, A.L. & Bennett, A. (2005). Case Studies and Theory Development in the Social Sciences. Cambridge, MT, US, MIT Press.

Kehl, W., Jackson, M., & Fergnani, A. (2020). Natural Language Processing and Futures Studies. World Futures Review, 12(2), 181-197. https://doi.org/10.1177/1946756719882414

Kernan Freire, S., Foosherian, M., Wang, C., & Niforatos, E. (2023, July). Harnessing large language models for cognitive assistants in factories. In Proceedings of the 5th International Conference on Conversational User Interfaces (pp. 1-6).

Keynes, J. M. (1930). “Economic Possibilities for our Grandchildren”. Essays in Persuasion. Harcourt Brace. 358-373.

Li, M., & Suh, A. (2021, January). Machinelike or humanlike? A literature review of anthropomorphism in AI-enabled technology. In 54th Hawaii International Conference on System Sciences (HICSS 2021) (pp. 4053-4062).

Li, O. (2024). Should we develop AGI? Artificial suffering and the moral development of humans. AI and Ethics, 1-11.

Magni, F., et al. (2023). Humans as Creativity Gatekeepers: Are We Biased Against AI Creativity?. Journal of Business and Psychology, 1-14.

Moqaddamerad, S., & Ali, M. (2024). Strategic foresight and business model innovation: The sequential mediating role of sensemaking and learning. Technological Forecasting and Social Change, 200, 123095.

Mortensen, J. K., et al. (2021). Barriers to developing futures literacy in organisations. Futures, 132, 102799.

Mukherjee, A., & Chang, H. (2023). Managing the Creative Frontier of Generative AI: The Novelty-Usefulness Tradeoff. California Management Review.

O’Neill, M., & Connor, M. (2023). Amplifying Limitations, Harms and Risks of Large Language Models. arXiv preprint arXiv:2307.04821.

Rauch, J. (2019). What is a Luddite, Really? What Is Technology? Conference, Portland, Oregon. https://www.academia.edu/38676716/What_is_a_Luddite_Really

Rawte, V., et al. (2023). The Troubling Emergence of Hallucination in Large Language Models—An Extensive Definition, Quantification, and Prescriptive Remediations. arXiv preprint arXiv:2310.04988.

Runco, M. A. (2023). AI can only produce artificial creativity. Journal of Creativity, 33(3), 100063.

Sagikyzy, A., & Uyzbayeva, A. (2024). Between Utopia and Reality (Modern Transhumanism Theories and Posthumanism). In Post-Apocalyptic Cultures: New Political Imaginaries After the Collapse of Modernity (pp. 77-95). Cham: Springer International Publishing.

Scarano, F.R. (2024). The Modern Divorce Between Nature and Culture. In: Regenerative Dialogues for Sustainable Futures. Sustainable Development Goals Series. Springer, Cham. https://doi.org/10.1007/978-3-031-51841-6_5

Seeber, I., et al. (2020). Machines as teammates: A research agenda on AI in team collaboration. Information & management, 57(2), 103174.

STALEY, D. (2007), History and Future. Plymouth, UK, Lexington Books.

TALEB, N.N. (2007). The Black Swan. The impact of the highly improbable, 2nd Edition, London, UK. Random House.

Thomassen, B. (2014). Liminality and the Modern. Farnham, UK, Ashgate.

Tunç, Y. E., & Öcal, A. T. (2023). Neo-Luddism in the Shadow of Luddism. Perspectives on Global Development and Technology, 22(1-2), 5-26. https://doi.org/10.1163/15691497-12341649

Walker, G. M. (2019). Exploring a designed liminality framework: Learning to create future-orientated knowledge (Doctoral dissertation, Murdoch University).

Wang, Y. (2023). The Large Language Model (LLM) Paradox: Job Creation and Loss in the Age of Advanced AI. https://www.techrxiv.org/doi/full/10.36227/techrxiv.24085824.v1

Wernaart, B. (Ed.), (2022), Moral Design and Technology, Wageningen (NL), Wageningen Academic Publishers.

World Economic Forum. (2023). Future of Jobs Report 2023. Retrieved April 12, 2024, from https://www3.weforum.org/docs/WEF_Future_of_Jobs_2023.pdf

Yin, Y., et al. (2024). AI can help people feel heard, but an AI label diminishes this impact. Proceedings of the National Academy of Sciences, 121(14), e2319112121.

Zhang, Y., et al. (2023). Siren’s song in the AI ocean: a survey on hallucination in large language models. arXiv preprint arXiv:2309.01219.

هوش مصنوعیجمال صوفیهمدل های زبانی بزرگخلاقیتآینده پژوهی و آینده نگاری
مدرس دانشگاه، کتاب خوان حرفه ای، کوچ، مترجم و مدرس در حوزه های:دوره های تخصصی زبان، علم مدیریت و کسب و کار ، فناوری، اقتصاد، روانشناسی، (softskills) ،روانشناسی سازمانی ، فلسفه علم و متدولوژی
شاید از این پست‌ها خوشتان بیاید