دنیل دِنِت توضیح میدهد که همه چیز با یک مکانیز بقا شروع میشود. پیشبینی رفتار دیگری مهم است. ممکن است آن ببر یک تهدید باشد و یکی از افراد روستای کناری چیزی برای عرضه داشته باشد.
در صورت منفعل ماندن ممکن است با سورپرایزی ناخوشایند مواجه شویم. اما دیدگاه هدفمند میگوید: «اگر من جای آنها بودم، اینگونه فکر میکردم». احتمال کارساز نبودن این دیدگاه نیز وجود دارد اما به اندازه کافی کارآمد بوده که بشریت پذیرای آن باشد.
اما دیدگاه فیزیکی (سنگی در حال حرک به سمت پنجره است و احتمالا آن را بشکند) و دیدگاه طراحی (وظیفه این دستگاه ATM توزیع پول است. پس باید درگاه پول را بررسی کنیم). اما ارزشمندترین و در حال حاضر مشکلسازترین میانبُری که وجود دارد این است که تصور کنیم دیگران نیز تصور میکنند.
در سابق مرغی در یک گذرگاه در نیویورک وجود داشت که دوز بازی میکرد. بهترین راه برای تعامل با آن مرغ این بود که تصور کنید که مرغ هدف و استراتژی داشته و «امیدوار» است شما حرکت خاصی را انجام دهید.
البته که مرغ نیز مانند کامپیوتری که شطرنج بازی میکند و شما را در موقعیت آنپاسان قرار میدهد، هدف و امیدی ندارد. اما چنین دیدگاهی را اتخاذ میکنیم زیرا مفید است. این تصویر دقیقی از موقعیت فیزیکی آن موجودیت نیست اما برای پیشبینی کردن مناسب است.
نوع مشخصی از همزادپنداری در اینجا مشاهده میشود. گسترش دیدگاه خود به موجودیت دیگر و تصور اینکه او نیز هدفمند است. اما همزمان فقدان همزادپنداری نیز قابل مشاهده است. زیرا همانطور که ما فکر میکنیم طرف مقابل شبیه ماست، او نیز همین فکر را میکند.
چالش زمانی اتفاق میافتد که پیشبینی ما از عاملیت و هدفمندی طرف مقابل نادرست باشد.
تا کنون بهنظر میرسد که انسانها دیدگاه هوش مصنوعی را دیدگاهی طراح و هدفمند میدانند. حتی محققان هوش مصنوعی نیز بهگونهای با مدلهای زبانی بزرگ (LLM) تعامل دارند که گویی با یک شخص حقیقی صحبت میکنند.
با این حال، دیدگاه هدفمند با خود مسئولیت و حقوقی به همراه دارد. ما به خواسته نوزادان مانند خود نگاه نمیکنیم و به همین خاطر راحتتر با گریه آنها کنار میآییم. مربیهای موفق سگ، آنها را مانند انسانی با چهار پا تصور نمیکنند. بلکه رفتارها را به یکسری ورودی و خروجی شکسته و برای تغییر رفتار از شرطیسازی استفاده میکنند و نه استدلال.
هر روزه میلیونها نفر به جامعه کسانی که به سیستمهای هوشمند خوشبین هستند اضافه میشوند. اما این تنها نوعی توهم است و هوش مصنوعی هنوز برای مسئولیتپذیری آماده نیست.
تلاقی چیزی که به آن باور داریم و چیزی که اتفاق میافتد قابل توجه خواهد بود. و ما حتی مطمئن نیستیم که چگونه باید درباره آن صحبت کنیم.
دیدگاه هدفمند اغلب مفید اما همیشه دقیق نیست. زمانی که دیگر ارزشمند و مفید نباشد، باید به فکر استفاده از مدلی دیگر برای نحوه درک و پیشبینی خود باشیم.
لینک مرجع: https://seths.blog/2024/06/the-intentional-stance/