نویسندگان :
مارکو بولو ، دنیس دراگ
محقق، آکادمی اوقات فراغت و رویدادها، دانشگاه علوم کاربردی بردا، هلند
کارگردان آیندهنگاری، شکل دادن به فردا، خلیج هاوک، نیوزلند
ترجمه و تدوین : دکتر جمال صوفیه
چکیده:
این مقاله دانشگاهی به پارادایم «آستانگی خودکار» (Automated Liminality) می پردازد و بررسی می کند که چگونه «توهمات» (hallucinations)ناشی از هوش مصنوعی ممکن است به عنوان سکوی پرشی برای خلاقیت بی نظیر در آینده نگاری و آینده پژوهی عمل کند. نویسندگان مروری تاریخی بر هوش مصنوعی و نقش در حال تکامل آن، به ویژه با تمرکز بر مدلهای زبانی بزرگ(LLM) و توانایی آنها برای ایجاد مسیرهای جدید در تولید دانش آینده ارائه میکنند. آنها مقاومت در زمینه آیندهنگاری در برابر LLMها را ترسیم میکنند و سه راه تغییردهنده را پیشنهاد میکنند که در آنها این ابزارها میتوانند به ایجاد فضای محدود کمک کنند: 1- غیریت یا دیگر بودنِ ذاتیِ LLM، 2- ظرفیت آنها برای ترکیب دادههای متفاوت 3- سادهسازی فرآیند آیندهنگاری برای ترکیب جمعیتی گستردهتر.
آینده پژوهی و آینده نگاری، بین رشته ای و ذاتاً آستانه ی یا بینابینی و مرزی (Liminal)شناسایی می شوند. از این رو، روش شناسی سیستماتیک و تفکر شهودی به یک اندازه ارزش دارد. این مقاله با ارائه دیدگاهی متعادل از تأثیر هوش مصنوعی بر مشاغل و تقویت قابلیتهای انسانی، روایت بیکاری فناوری را به چالش میکشد. از طریق تجزیه و تحلیل انتقادی، این مقاله نشان می دهد که "توهمات" یا اشتباهات وپاسخ های نادرست LLM ها را می توان به عنوان سناریوهای پیش بینی نشده ای که سهم مهمی در تصور آینده ارائه می دهد، دوباره تعریف کرد. علاوه بر این، LLM ها را به عنوان موجودیت های «دیگر» بررسی می کند که اگرچه انسانی نیستند، اما می توانند تفکر خلاق را بدون محدودیت های انسانی تسریع کنند.
با توجه به دموکراتیزه کردن فرآیند آیندهنگاری، ادغام هوش مصنوعی برای تسهیل مشارکت گسترده، ترویج تفکر انتقادی و خلاق و تسریع فرآیند، برای محققان و دانشجویان، نوید بخش نشان داده شده است. نویسندگان با استدلال برای روایتی که بر عامل انسانی در آینده LLM متمرکز است، از نقش حیاتی آینده پژوهان در قالب بندی این ابزارها به عنوان مکمل – و نه به عنوان جایگزینِ- عنصر انسانی در آینده نگاری استراتژیک دفاع می کنند.
کلید واژه ها
مدل های زبانی بزرگ، آینده پژوهی، خلاقیت، بیکاری فناوری، همکاری انسان و هوش مصنوعی.
مقدمه:
با این مشارکت، نویسندگان استدلال میکنند که هوش مصنوعی (AI) و بهویژه هوش مصنوعی مولد مانند مدلهای زبانی بزرگ (LLM) میتوانند با افزودن راههای جدید برای ایجاد دانش و بینش در مورد آینده به آینده پژوهی و آیندهنگاری حتی آستانه ای تر و مرزی ترکمک کنند. از آنجایی که هنوز مقداری مقاومت در برابر استفاده از LLM در حوزه آیندهپژوهی و آیندهنگاری وجود دارد، ما قبل از بررسی سه حالت ایجاد فضای آستانه ای که توسط LLMها فعال شدهاند، به دیدگاه تاریخی هوش مصنوعی و همچنین کاربرد آن در این زمینه نگاه میکنیم: توانایی اتصال دادههای متفاوت و اینکه چگونه میتوانند فرآیند آیندهنگاری را برای ترکیب جمعیتی بزرگتر ساده کنند.
آینده پژوهی و آینده نگاریحوزه های چند رشته ای نسبتاً جدید هستند که از علوم انسانی تا طراحی، در حال گذار دائمی هستند که ممکن است به صورت ذاتاً آستانه ای در فرآیند پیچیده کشف دانش در مورد آینده ، مفهوم سازی شوند (توماسن، 2014). که حداقل برای ایجاد مفاهیم مشترک بر اساس فرضیه ها و سناریوهای مختلف استفاده و مفهوم سازی می شوند(Walker, 2019) . این حوزه ای است که در آن تجزیه و تحلیل سیستماتیک ممکن است به اندازه شهود و کاریزمای فردی به خروجی ارزشمند و نتایج معنادار کمک کند (Bevolo, 2023- : Danemann et al., 2023). اگرچه گاهی اوقات ممکن است روش شناختی مشابهی به کار گرفته شود، اما بر خلاف علوم تاریخی (استالی، 2007) یا علوم سیاسی (جورج و بنت، 2005) ، آینده پژوهی روی حوزه ای کار می کند که وجود ندارد، بنابراین ردیابی عَقَبه یا گذشته (جورج و بنت، 2005) یا تأیید اسنادی مرتبط با حقایق فرضی برای آینده پژوهان امکان پذیر نیست.
مروری کوتاه بر دیدگاه تاریخی هوش مصنوعی و آینده نگاری
از زمان انتشار عمومی ChatGPT 3.5 در سال 2022، رسانه های آنلاین شاهد تکرار مجدد بحث ها در مورد بیکاری تکنولوژیکی بوده اند (کینز، 1930). در حالی که رباتها همچنان جایگزین انسانها در بخش تولید میشوند، شواهدی وجود دارد که تأثیر کلی روباتها و هوش مصنوعی بر افراد ممکن است با توجه به افزایش دستمزدهای محلی مثبت باشد (چانگ، 2023). به همین ترتیب، LLM ها می توانند در افزایش نیروی کار تولید نقش داشته باشند(Kernan Freire et al., 2023).
یک نظرسنجی اخیر از گروه Adecco نشان می دهد که 41٪ از 2000 مدیران ارشد یا C-suite که مورد پرسش قرار گرفته بودند، گفته اند که نیروی کار آنها به دلیل هوش مصنوعی طی 5 سال آینده (2024) کاهش می یابد. با این حال، مجمع جهانی اقتصاد افزایش خالص مشاغل را به دلیلLLM ها (2023) انتظار دارد. تأثیرات روی مشاغل یقه سفید، در حالی که به طور بالقوه ویرانگر است، می تواند با تغییر در روایت، تبدیل به بهبود کار انسان به جای جایگزینی آن شود. (Yifei، 2023. بنابراین، نگرانیهای مربوط به بیکاری تکنولوژیکی ممکن است هنوز زودرس و ناپخته باشد، بهویژه این که کمتر در مورد قابلیتهای تکنولوژیکی هستند و بیشتر در مورد تمایل انسان برای دستیابی به حداکثر سود بحث می شود (Ebert, 2023).
آینده پژوهان استراتژیک نیز از این بحث مصون نمانده اند. نظرات در مورد اینکه آیا هوش مصنوعی می تواند جایگزین آینده پژوهان شود یا خیر در لینکدین، لیست سرورز(Listservers) و سایر رسانه های آنلاین منتشر شده است. نویسندگان استدلال می کنند که آینده پژوهان، در حالی که هیچ نیاز مستقیم یا تعهد حرفه ای برای پذیرش هوش مصنوعی به عنوان یک ابزار کاری ندارند، مسئولیت دارند حداقل روایت های جایگزین را برای نحوه استفاده از هوش مصنوعی به عنوان ابزار توسط انسان ها به جای جایگزینی برای انسان ها به اشتراک بگذارند.
اتوماسیون در اوایل سال 2015 توسط حداقل یک پلت فرم آنلاین که پایش یا اسکن افق و چشم انداز را تا حد زیادی خودکار می کرد، به حوزه آینده نگاری معرفی شد(Kehl et al., 2020). این شرکت در سال 2003 برای آیندهنگاری مشترک راهاندازی شد و از سال 2015 هوش مصنوعی را به روشهای مختلف به کار میبرد. از طریق خودکارسازی تحقیقات اساسی آینده پژوهی/آیندهنگاری، این پلتفرم نحوه انجام این فرآیند را تقویت کرد (Fergnani & Jackson, 2019) .
در سال 2022، این پلتفرم خدمات جدیدی را در فضای هوش مصنوعی مولد با برنامه های کاربردی برای همکاری انسانی راه اندازی کرد. بنابراین، از فناوری های مختلفی برای سازماندهی تفکر در مورد آینده استفاده می کند. همان پلتفرم به جای تلاش برای جایگزینی فرآیند یا افرادی که این فرآیند را انجام می دهند، به کار بر روی تقویت چگونگی انجام فرآیند ادامه می دهد.
یکی از نویسندگان درگیر بررسی انتقادی نحوه اتصال سیستمهای یادگیری ماشینی (ML) به فرآیندهای طراحی برای Futures Design بود و به این نتیجه رسید که هوش مصنوعی ممکن است برای پایش مناسب باشد (Bevolo & Amati, 2020) ، با این حال - در زمان آن تجزیه و تحلیل - هوش مصنوعی مولد هنوز نمی توانست حلقه های بازخورد را بین نمونه سازی اولیه و چرخه های بعدی مراحل در فرآیندهای طراحی آینده فعال کند، به ویژه در مورد پروژه های کاربردی. با این حال، سرعت توسعه و کیفیت بهبود در طراحی و ارائه آیندهنگاری خودکار نیاز به نظارت سیستماتیک و منظم دارد.
با توجه به ظهور ChatGPT و سیستمهای مشتق شده از آن ، رابطه بین آیندهنگاری خودکار و انسانی و اکتشاف آینده، حوزهای از آستانه بین کارایی دیجیتال و شهود شخصی است، زیرا سؤال اساسی این است که آیا LLM میتواند مکمل یا حتی جایگزین متخصصان آینده و محققان آیندهنگر باشد. در نهایت، نویسندگان بر این باورند که این امکانِ درستی، برای کاوش نیست، زیرا هوش مصنوعی را در دوگانگی بینشهای دیستوپیایی (ویران شهری یا آخرالزمانی) و آرمانشهری که در دورههای تاخیر فرهنگی رایج است، چارچوب میدهد (فیشر و رایت، 2006). مهمتر از آن، این دوگانگی به طور غیر ضروری گفتگوی فلسفی را محدود خواهد کرد (آلبرشت، 2017).
با نگاهی به متخصصان و مشاوران آیندهنگاری، سؤالات فوریتر، حولِ محورِ ارزشی است که، آیندهپژوهان استراتژیک میتوانند ازLLM کسب کنند. البته این بستگی به فرآیندهای طراحی و فرمت های تحویل و در نهایت بستگی به هزینه های منطقی در مقابل منافع برای مشتریان دارد. با تمرکز بر این چالشها، یک فرض ضروری این است که آیندهپژوهان بخشی از فرآیند باقی خواهند ماند و در عین حال ارزش رهبری انسانی را در این فرآیند تأیید میکنند.
خودکار کردن پیوندها و اتصالات
همانطور که در نشریه بررسی شده توسط یکی از نویسندگان Bevolo & Amati، 2020 بررسی شد، سیستمهای ML قبلاً ارزش خود را در پایش نمودها و تولید خوشههای روند با افزایش دقت و به صورت معنیداری ثابت کرده بودند. با این حال، LLM ها اطلاعاتی را تولید می کنند که یا غیرمنطقی یا نادرست است، زیرا آنها بر روی تازگی متمرکز هستند(Rawte et al., 2023؛ Zhang et al., 2023). این توهمات بر دقت تأثیر منفی می گذارد (موکرجی و چانگ، 2023)LLM ها هیچ هدف زبانی ندارند زیرا در واقع باهوش نیستند و ورودی ها یا حتی خروجی هایشان را درک نمی کنند(O’Neill & Connor, 2023). بنابراین، خروجی می تواند مبهم باشد زیرا دستگاه به حد مفید خود رسیده است. حتی زمانی که آنها دقیق باشند، خروجی ممکن است کاری جز خلاصه کردن داده های آموزشی خود انجام ندهد، زیرا سودمندی را به تازگی ترجیح می دهد. اگر LLM بیش از حد بر سودمندی تمرکز کند، خروجی دقیق است اما از نظر فکری محرک نیست (موکرجی و چانگ، 2023).
این محدودیتها اغلب بهعنوان «خطا» بررسی شدهاند، شاید منطقی پوزیتیویستی (اثبات گرایانه) و خطی در معرفتشناسی تحقیق اتخاذ کنند. با این حال، همانطور که توسط یکی از نویسندگان در مقاله ESOMAR (Bevolo & Price، 2006، نشان داده شده است، در آینده پژوهی و آینده نگاری "خطاهای" ظاهری ممکن است منجر به سناریوها و مفاهیم پیش بینی نشده شود، بنابراین نقش کلیدی در ارائه ارزش واقعی ایفا می کند به عنوان مثال، قوهای سیاه (نسیم طالب) . این به این دلیل است که عمل تجسم آینده به طور ذاتی شامل لزوم پذیرش پارادوکس ها در حین کاوش در ناشناخته ها می شود.
به همین ترتیب، محدودیتهای دقت میتواند تأثیر مثبتی بر خلاقیت بگذارد، و LLM میتواند مقالاتی را تولید کند که همه چیز را به روشهای جذابی با هم مخلوط میکند. برخی از افراد خروجی ماشین را به عنوان شبه خلاقیت تفسیر می کنند (رانکو، 2023)، اما چنین دیدگاه هایی ذاتاً مغرضانه هستند (Magni et al., 2023).
معاوضه دقت با خلاقیت یکی از دلایل این رشته برای استفاده از LLM برای ابزارهای همکاری است. انسان ها می توانند به طور مشترک دقت خروجی را تأیید کنند و در عین حال جزئیات بیشتری را در دنیای واقعی اضافه کنند. همکاران انسانی سپس به همکاران انسان ماشین تبدیل میشوند تا «پیکره های بزرگ را برای تحقیق در دسترس قرار دهند» (Feuston & Brubaker, 2021). تحقیقات بیشتری با توجه به کاربرد خلاقیت ماشینی در افزایش خلاقیت انسان به ویژه در زمینه همکاری انسانی باید انجام شود (Seeber et. al, 2020) زیرا آیندهی آینده پژوهی و آینده نگاری در این شکل جدید گفتگوی فعال نهفته است. سنتز غیرمنطقی توسط سیستم های خودکار LLM و خلاقیت انسان. در واقع، این محبوبترین ویژگی تمسخر آمیز LLM، یعنی توهمها، است که بیشترین سود را برای آیندهنگاری و محدودیتهای آیندهنگاری ارائه میکند، زیرا آنها متفاوت بودن متمایز LLM را نشان میدهند.
ماشین ها به عنوان دیگری یا غیر برای آستانگی
خوشبینهای فنی از ما میخواهند که بشریت را بیشتر از طبیعت جدا کنیم تا با ماشینی برای پایان دادن به مرگ یکی شویم (بوستروم، 2008؛ ورنارت، 2022). با این حال، با انجام این کار، بشریت عاملیت را به ماشینهایی تسلیم میکند که هیچ عامل مستقلی از انسانیت ندارند (دیگوئز، 2023). در واقع، برخی از گروههای فنی-خوشبین را میتوان ضد بشری در نظر گرفت (Sagikyzy & Uyzbayeva, 2024). در همین حال، بدبینان فنی تأثیرات منفی هوش مصنوعی را برجسته می کنند (Tunç & Öcal، 2023؛Wernaart، 2022. با این حال، بین این افراطها، گروهی معتدل از فناوری گریزان مدرن، قرار دارند که خواستار استفاده مسئولانهتر از فناوریهای دیجیتال هستند (راچ، 2019).
کل این طیف با استعاره های انسانی مرتبط است (لی و سو، 2021). هم فنآوران خوشبین و هم بدبینها از هوش مصنوعی به گونهای صحبت میکنند که گویی عاملیتی را برای عمل مستقل در جامعه دارد. اتخاذ این استعاره ها نظریه تاخیر فرهنگی را نشان می دهد که در حال حاضر بر روی LLM ها کار می کند زیرا آنها امیدها و ترس های گروه های اجتماعی مختلف را نشان می دهند (فیشر و رایت، 2006).
در حالی که هوش عمومی مصنوعی(AGI) اغلب با ویژگی های انسانی مانند رنج مصنوعی، شخصیت می یابد، LLM ها ابزار هستند و جایگزینی برای هوش انسانی نیستند (Chubb et al., 2021). نکته مهمتر، این استعاره ها واقعیت دیگری بودن را که هوش مصنوعی به تجسم خود ادامه می دهد نادیده می گیرد.
با وجود اینکه طبیعت متفاوت است(Scarano, 2024)، فناوری به طور کلی وLLM ها به طور خاص ذاتاً چیز دیگری هستند (Olivier 2021). آنها انسان نیستند، اما می توانند طوری رفتار کنند که انگار هستند. آنها آنچه را که می خوانند یا می نویسند نمی فهمند و اغلب به گونه ای نتیجه گیری می کنند که سازندگان آنها کاملاً نمی فهمند (کوئکلبرگ، 2020). بنابراین، نویسندگان استدلال میکنند که ما باید روایت کلی را دوباره چارچوببندی کنیم تا آنها را به این شکل، بهعنوان ماشینهایی با عامل برنامهریزی شده انسانی در نظر بگیریم، حتی اگر برخی سناریوها نشان دهند که میتوانند بیشتر از آن شوند (گبرو و تورس، 2024).
با این حال، با انسان نبودن و در نتیجه محدود نشدن توسط قضاوت، احساسات یا اراده سیاسی؛ LLM ممکن است به بررسی مسائلی که معمولاً شرکت کنندگان در کارگاه با آن مواجه می شوند کمک کند (مانند بلوک های ایده، تفکر خطی، دیدگاه مغرضانه، سیاست تیم)، و به پزشکان، محققان و مشتریان این امکان را می دهد که سریعتر شکاف های دانش غیرمنتظره را شناسایی کنند، یا نسبت ناشناخته ها به شناخته شده ها را افزایش دهند. در مقابل شناخته شده ها در نهایت، با توجه به ماهیت فعلی VUCA واقعیت روزمره ما ( شرایط ناپایدار، نامطمین، گیج کننده و مبهم دنیای امروز)، مطمئناً ممکن است به کشف مجهولات ناشناخته کمک کند و حتی به دسته بندی ناشناخته ها (یعنی مفروضات) کمک کند.
LLM ها همچنین فضایی بین پیش بینی نابغه و پیش بینی متخصص را اشغال می کنند. LLM ها با میانگین گیری کلمات استفاده شده توسط منابع متعدد عمل می کنند. بنابراین، می توان از آنها به عنوان تجمعات عمومی متخصصان مختلف استفاده کرد. نویسندگان استدلال میکنند که حتی این کثرت مجازی هنوز بهتر از نزدیکبینی یا ناتوانی در تولید هر ایدهای است، مثلاً در زمینه بلوکهای خلاقانه در کارگاهها یا در نوشتار. همه چیز بستگی به طرز فکری دارد که افراد هنگام استفاده از دیگری بودن سیستم های خودکار خواهند داشت. با این حال، بزرگترین ارزش توهمات و غیریت LLM، ارزش آنها برای آینده نگری دموکراتیک است.
دموکراتیک کردن روند آینده نگاری
موانع زیادی برای نوآوری مدل کسب و کار وجود دارد و آینده نگاری استراتژیک به عنوان مسیری رو به جلو از طریق موانع شناسایی شده پیشنهاد شده است (مقدمراد و علی، 2024). با این حال، آینده نگری سازمانی موانع بسیاری دارد (مورتنسن و همکاران، 2021). هوش مصنوعی ممکن است با منحرف کردن کاربران از تعصبات کوتاه مدت آنها و در عوض تمرکز بر تعامل آنها با فرآیند آینده نگاری، به رفع این موانع برای آینده نگاری و در نتیجه نوآوری کمک کند.
از دیدگاه کارگاه آیندهنگاری، هوش مصنوعی میتواند برای کاهش زمان لازم برای گذراندن فرآیند آیندهنگاری استفاده شود. بنابراین، میتواند از تسهیلکنندهها حمایت کند تا افراد بیشتری را برای دموکراتیک کردن بیشتر فرآیند مشارکت دهند. هوش مصنوعی همچنین میتواند از تسهیلکنندهها پشتیبانی کند تا کارگاه را در زمان واقعی بر اساس نیازهای شرکتکنندگان در کارگاه تنظیم کنند.
یکی از جنبه های کلیدی استفاده از هوش مصنوعی در طول تسهیل، استفاده از تفکر انتقادی است. از آنجایی که انسانها معمولاً ارزش خروجی LLM را حتی زمانی که خروجی آن به طور عینی بهتر از انسان است را کاهش میدهند (یین و همکاران، 2024)، شرکتکنندگان در یک کارگاه بیش از فرآیند آیندهنگری استراتژیک، تفکر انتقادی در مورد خروجی هوش مصنوعی دارند.
متحد کردن شرکتکنندگان با تفکر انتقادی علیه هوش مصنوعی میتواند به مشارکت آنها در فرآیند آیندهنگاری مبتنی بر هوش مصنوعی کمک کند. بنابراین، اگر تسهیلکننده فهرستی از گرایشها تهیه کند و از شرکتکنندگان بخواهد موارد موجود در فهرست را ارزیابی کنند، شرکتکنندگان ممکن است زمانی که بدانند روندها توسط یک هوش مصنوعی و نه یک انسان ایجاد شدهاند، انتقاد بیشتری را ابراز میکنند. حتی ممکن است یک تسهیلکننده با صلاحیت، مفروضات و سوگیریهای شرکتکنندگان را با استفاده از سوگیریهای آشکار در خروجی LLM یا از طریق پرسش از پاسخهای شرکتکننده در برابر معیار عینی خروجیLLM کشف کند.
تنها سیاستی که در انتقاد از هوش مصنوعی وجود دارد، منافع شخصی افراد است که نشان دهد از ماشین هوشمندتر هستند. بنابراین، شرکتکنندگان بیشتری ممکن است با خروجی دستگاه درگیر شوند. سپس تسهیلکننده میتواند شرکتکنندگان را با پرسیدن اینکه فهرست چگونه باید ویرایش شود و چه چیزی اضافه شود، به تفکر خلاق سوق دهد.
روند مشابهی را می توان با تولید سناریو دنبال کرد و در عین حال محتوایی را تولید کرد که به طور خاص با موقعیت زودگذر کارگاه مرتبط باشد،. تسهیلگر میتواند از شرکتکنندگان در مورد اینکه چه چیزی را باید جستجو کرد و چگونه آن را جستجو کرد و مشارکتکنندگان را بیشتر در فرآیند جستجو وارد کند ، از افراد جمع آوری شده در آن گروه در یک زمان خاص کمک بخواهد. به همین ترتیب، هوش مصنوعی میتواند بسیاری از جنبههای تحلیلی کارگاهها را در طول کارگاه مدیریت کند تا زمان مشارکت را با ایجاد دانش مشغول نگه دارد (Dufva & Ahlqvist, 2015).
این ترکیب تفکر انتقادی با تفکر خلاق با انتقال شرکتکنندگان بین حالتهای مختلف تفکر، فضایی را برای فضای آستانه ای ایجاد میکند.
نتیجه گیری
اگرچه آینده LLM ها با انواع سناریوهای قابل قبول هنوز در حال توسعه است، نویسندگان معتقدند که آینده پژوهان باید این آینده ها را با تمرکز بر عامل انسانی، مسئولیت پذیری و پاسخگویی ارتباط برقرار کنند. با در نظر گرفتن کار پلتفرم هوش مصنوعی، با در نظر گرفتن اجتنابناپذیری تکامل بیشتر آن، نویسندگان در اینجا به این نتیجه میرسند که یکی از راههایی که LLMها روند آیندهنگری را تقویت میکنند، محدود کردن این فرآیند است، یعنی بین خلاقیت انسان و فرآیندهای خودکارLLMها آیندهنگاری را قادر میسازند تا در مواجهه با شرایط فعلی و آتی آستانه ای و به شدت بینابینی، با بهره گیری از غیر و دیگر بودن هوش مصنوعی، به تدریج انعطافپذیرتر، پیشبینیکنندهتر و مؤثرتر شوند، همچنین کمک می کنند تا ارتباطات متفاوت را خودکار کنند و فرآیند آیندهنگاری را برای تازهکاران سادهتر میکنند.
References
Adecco Group. (2024). Leading through the great disruption: How a human-centric approach to AI creates a talent advantage. Retrieved April 12, 2024, from https://discover.adeccogroup.com/Business-Leaders-2024_Global-Report
Andersen, Dannemand, et al. (2023) Technology Foresight for Public Funding of Innovation: Methods and Best Practices, Vesnic Alujevic, L., Farinha, J. and Polvora, A. editor(s), Publications Office of the European Union, Luxembourg, doi:10.2760/759692, JRC134544.
Bevolo, M. (2023-a). Individual intuition and communicative charisma as enablers of futures and envisioning: “genius forecasting” versus “forecasting geniuses”, pp. 18-26 in: Dannemand Andersen, P., Bevolo, M., Ilevbare, I., Malliaraki, E., Popper, R. and Spaniol, M.J., Technology Foresight for Public Funding of Innovation: Methods and Best Practices, Vesnic Alujevic, L., Farinha, J. and Polvora, A. editor(s), Publications Office of the European Union, Luxembourg, 2023, doi:10.2760/759692, JRC134544.
Bevolo, M. (2023-b). Design Futures in A Wider Context: Historical Reflections, Potential Directions, and Challenges Ahead. International Journal of Design and Allied Sciences, 2 (2), 27-41.
Bevolo, M., & Amati, F. (2020). The Potential Role of AI in Anticipating Futures from a Design Process Perspective: From the Reflexive Description of “Design” to a Discussion of Influences by the Inclusion of AI in the Futures Research Process. World Futures Review, 12(2), 198-218. https://doi.org/10.1177/1946756719897402
Bevolo, M. & Price, N. (2006). Towards the evolutions and revolutions in futures research. ESOMAR BrandMatters conference, New York, March 2006.
Chubb, J, et al. (2021) Speeding up to keep up: exploring the use of AI in the research process. AI Soc. 2022;37(4):1439-1457. doi: 10.1007/s00146-021-01259-0. PMID: 34667374; PMCID: PMC8516568.
Coeckelbergh, M. (2020). Artificial intelligence, responsibility attribution, and a relational justification of explainability. Science and engineering ethics, 26(4), 2051-2068.
Datta, T., & Dickerson, J. P. (2023). Who’s Thinking? A Push for Human-Centered Evaluation of LLMs using the XAI Playbook. arXiv preprint arXiv:2303.06223.
Dufva, M., & Ahlqvist, T. (2015). Knowledge creation dynamics in foresight: A knowledge typology and exploratory method to analyse foresight workshops. Technological Forecasting and Social Change, 94, 251-268.
Ebert, N. (2023). From Keynes’ Possibilities to Contemporary Precarities: Reflections on the Origins of Our Economically and Politically Precarious Times. Sociology Lens, 36(2), 185-197.
Fergnani, A., & Jackson, M. (2019). Extracting scenario archetypes: A quantitative text analysis of documents about the future. Futures & Foresight Science, 1(2), e17.
Feuston, J. L., & Brubaker, J. R. (2021). Putting Tools in Their Place: The Role of Time and Perspective in Human-AI Collaboration for Qualitative Analysis. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2), 1-25.
Fisher, D. R., & Wright, L. M. (2006, June 23). On Utopias and Dystopias: Toward an Understanding of the Discourse Surrounding the Internet. Journal of Computer-mediated Communication. https://doi.org/10.1111/j.1083-6101.2001.tb00115.x
Gebru, T., & Torres, É. P. (2024). The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. First Monday.
George, A.L. & Bennett, A. (2005). Case Studies and Theory Development in the Social Sciences. Cambridge, MT, US, MIT Press.
Kehl, W., Jackson, M., & Fergnani, A. (2020). Natural Language Processing and Futures Studies. World Futures Review, 12(2), 181-197. https://doi.org/10.1177/1946756719882414
Kernan Freire, S., Foosherian, M., Wang, C., & Niforatos, E. (2023, July). Harnessing large language models for cognitive assistants in factories. In Proceedings of the 5th International Conference on Conversational User Interfaces (pp. 1-6).
Keynes, J. M. (1930). “Economic Possibilities for our Grandchildren”. Essays in Persuasion. Harcourt Brace. 358-373.
Li, M., & Suh, A. (2021, January). Machinelike or humanlike? A literature review of anthropomorphism in AI-enabled technology. In 54th Hawaii International Conference on System Sciences (HICSS 2021) (pp. 4053-4062).
Li, O. (2024). Should we develop AGI? Artificial suffering and the moral development of humans. AI and Ethics, 1-11.
Magni, F., et al. (2023). Humans as Creativity Gatekeepers: Are We Biased Against AI Creativity?. Journal of Business and Psychology, 1-14.
Moqaddamerad, S., & Ali, M. (2024). Strategic foresight and business model innovation: The sequential mediating role of sensemaking and learning. Technological Forecasting and Social Change, 200, 123095.
Mortensen, J. K., et al. (2021). Barriers to developing futures literacy in organisations. Futures, 132, 102799.
Mukherjee, A., & Chang, H. (2023). Managing the Creative Frontier of Generative AI: The Novelty-Usefulness Tradeoff. California Management Review.
O’Neill, M., & Connor, M. (2023). Amplifying Limitations, Harms and Risks of Large Language Models. arXiv preprint arXiv:2307.04821.
Rauch, J. (2019). What is a Luddite, Really? What Is Technology? Conference, Portland, Oregon. https://www.academia.edu/38676716/What_is_a_Luddite_Really
Rawte, V., et al. (2023). The Troubling Emergence of Hallucination in Large Language Models—An Extensive Definition, Quantification, and Prescriptive Remediations. arXiv preprint arXiv:2310.04988.
Runco, M. A. (2023). AI can only produce artificial creativity. Journal of Creativity, 33(3), 100063.
Sagikyzy, A., & Uyzbayeva, A. (2024). Between Utopia and Reality (Modern Transhumanism Theories and Posthumanism). In Post-Apocalyptic Cultures: New Political Imaginaries After the Collapse of Modernity (pp. 77-95). Cham: Springer International Publishing.
Scarano, F.R. (2024). The Modern Divorce Between Nature and Culture. In: Regenerative Dialogues for Sustainable Futures. Sustainable Development Goals Series. Springer, Cham. https://doi.org/10.1007/978-3-031-51841-6_5
Seeber, I., et al. (2020). Machines as teammates: A research agenda on AI in team collaboration. Information & management, 57(2), 103174.
STALEY, D. (2007), History and Future. Plymouth, UK, Lexington Books.
TALEB, N.N. (2007). The Black Swan. The impact of the highly improbable, 2nd Edition, London, UK. Random House.
Thomassen, B. (2014). Liminality and the Modern. Farnham, UK, Ashgate.
Tunç, Y. E., & Öcal, A. T. (2023). Neo-Luddism in the Shadow of Luddism. Perspectives on Global Development and Technology, 22(1-2), 5-26. https://doi.org/10.1163/15691497-12341649
Walker, G. M. (2019). Exploring a designed liminality framework: Learning to create future-orientated knowledge (Doctoral dissertation, Murdoch University).
Wang, Y. (2023). The Large Language Model (LLM) Paradox: Job Creation and Loss in the Age of Advanced AI. https://www.techrxiv.org/doi/full/10.36227/techrxiv.24085824.v1
Wernaart, B. (Ed.), (2022), Moral Design and Technology, Wageningen (NL), Wageningen Academic Publishers.
World Economic Forum. (2023). Future of Jobs Report 2023. Retrieved April 12, 2024, from https://www3.weforum.org/docs/WEF_Future_of_Jobs_2023.pdf
Yin, Y., et al. (2024). AI can help people feel heard, but an AI label diminishes this impact. Proceedings of the National Academy of Sciences, 121(14), e2319112121.
Zhang, Y., et al. (2023). Siren’s song in the AI ocean: a survey on hallucination in large language models. arXiv preprint arXiv:2309.01219.