به گزارش سایت خبری اولین ده(avvalindah) حذف مکالمات ChatGPT از گوگل به یکی از جنجالیترین اخبار هفته تبدیل شده. ماجرا از یک گزینه ساده شروع شد و به بحرانی تمامعیار برای غول هوش مصنوعی انجامید. OpenAI که تا همین چند روز پیش در اوج محبوبیت قرار داشت، حالا با چالشی جدی روبرو شده که اعتماد کاربران را نشانه گرفته.
داستان از آنجا آغاز شد که این شرکت قابلیتی را برای اشتراکگذاری مکالمات طراحی کرده بود. کاربران میتوانستند گفتگوهای خود با هوش مصنوعی را از طریق یک لینک با دیگران به اشتراک بگذارند. هیچ مشکلی به نظر نمیرسید، تا اینکه یک جزئیات کوچک همه چیز را تغییر داد.

در پنجره اشتراکگذاری، گزینهای با عنوان “Make this chat discoverable” (این گفتگو را قابل کشف کن) وجود داشت. پایینتر، با فونتی کوچکتر و خاکستریرنگ توضیحی آمده بود: “اجازه میدهد در جستجوهای وب نمایش داده شود.”
بسیاری از کاربران بدون توجه به این توضیح یا درک کامل پیامدهای آن، این گزینه را فعال میکردند. آنها فکر میکردند که لینکهای ایجادشده فقط برای کسانی قابل دسترسی خواهد بود که آدرس دقیق آن را دارند – مثل وقتی که لینک یک فایل خصوصی را برای دوستتان میفرستید.
اما واقعیت چیز دیگری بود. با تیک زدن این گزینه، مکالمات کاملاً عمومی میشدند و در نتایج جستجوی گوگل ظاهر میگشتند. انگار نامههای خصوصیتان را به در و دیوار شهر چسبانده باشید!

هفته گذشته، مجله Fast Company در گزارشی تکاندهنده پرده از این موضوع برداشت. آنها توانستند هزاران مکالمه خصوصی کاربران ChatGPT را در نتایج جستجوی گوگل پیدا کنند. وبسایت Ars Technica نیز این خبر را پوشش داد و به گسترش آن کمک کرد.
این اتفاق نشان میدهد که چقدر مرز میان خصوصی و عمومی در دنیای دیجیتال شکننده شده. بسیاری از کاربران حتی نمیدانند چه اطلاعاتی از آنها در دسترس عموم قرار میگیرد.
برخی از این مکالمات حاوی اطلاعات حساس بودند. اگرچه نام کاربران به طور مستقیم فاش نشده بود، اما محتوای بسیاری از گفتگوها آنقدر شخصی و جزئی بود که میتوانست به شناسایی افراد منجر شود. از طرحهای تجاری گرفته تا پیشنویس ایمیلهای کاری و حتی مشکلات شخصی، همه در معرض دید عموم قرار گرفته بودند.
واکنش اولیه OpenAI جالب توجه بود. دن استوکی، مدیر ارشد امنیت اطلاعات این شرکت، در گفتگو با Fast Company ادعا کرد که برچسبگذاری این گزینه “به اندازه کافی واضح” بوده و کاربران میتوانستند پیامدهای انتخاب خود را درک کنند.
قرار دادن اطلاعات مهم با فونت خاکستری و کوچک و انتظار اینکه کاربران آن را بخوانند و اهمیتش را درک کنند، مثل این است که قرارداد بیمه عمرتان را پشت یک کارت ویزیت چاپ کنید!
این نوع طراحیها را در اصطلاح فنی «الگوهای طراحی فریبنده» مینامند که هدفشان هدایت کاربر به سمت انتخابهایی است که لزوماً به نفع او نیست. شرکتهای بزرگ فناوری باید از این الگوها دوری کنند.
فشار افکار عمومی و رسانهها آنقدر زیاد بود که OpenAI سرانجام مجبور به عقبنشینی شد. روز پنجشنبه، استوکی در بیانیهای با لحنی متفاوت گفت: “در نهایت، فکر میکنیم این ویژگی فرصتهای زیادی را برای افراد ایجاد کرد تا به طور تصادفی چیزهایی را به اشتراک بگذارند که قصدش را نداشتند. بنابراین، این گزینه را حذف میکنیم.”
این شرکت همچنین اعلام کرد که در حال همکاری با موتورهای جستجو برای حذف مکالمات قبلی از نتایج جستجوست. با این حال، کارشناسان هشدار میدهند که این فرآیند زمانبر خواهد بود و ممکن است برخی مکالمات همچنان در آرشیوهای وب باقی بمانند.
حتی اگر صفحات از ایندکس اصلی گوگل حذف شوند، نسخههای ذخیرهشده از آنها ممکن است در جاهای دیگر باقی بمانند. اینترنت هرگز چیزی را کاملاً فراموش نمیکند.
این ماجرا درسهای مهمی را یادآوری میکند:
1. شفافیت در طراحی: شرکتها موظفند گزینههای مربوط به حریم خصوصی را با وضوح کامل نشان دهند. یک توضیح کوچک و کمرنگ برای تصمیمی به این اهمیت کافی نیست.
2. هوشیاری کاربران: ما به عنوان کاربر باید نسبت به گزینههایی که انتخاب میکنیم، حساستر باشیم.
3. تعادل میان نوآوری و امنیت: شرکتهای فناوری گاهی در مسیر نوآوری سریع، ملاحظات امنیتی را نادیده میگیرند. این رویکرد میتواند هزینههای سنگینی به دنبال داشته باشد.
شرکتهای بزرگ فناوری باید بدانند که اعتماد کاربران مهمترین سرمایه آنهاست. این ماجرا نشان داد که چگونه یک اشتباه طراحی میتواند به سرعت این اعتماد را خدشهدار کند.
این اتفاق میتواند بر آینده تعامل ما با ابزارهای هوش مصنوعی تأثیر بگذارد. بسیاری از کاربران اکنون با احتیاط بیشتری با ChatGPT و ابزارهای مشابه صحبت میکنند.
شوخی در این مورد می گوید: “بعد از این ماجرا، طوری با ChatGPT حرف میزنم انگار دارم با بلندگو در میدان شهر صحبت میکنم!”
این اتفاق میتواند باعث شود قانونگذاران توجه بیشتری به مقررات حریم خصوصی در حوزه هوش مصنوعی داشته باشند. شاید به زودی شاهد مقررات سختگیرانهتری مشابه GDPR اروپا باشیم.
ماجرای حذف مکالمات ChatGPT از گوگل فراتر از یک خبر ساده فناوری است. این اتفاق نشان میدهد که در عصر دیجیتال، مرز میان خصوصی و عمومی چقدر شکننده شده و چگونه یک طراحی نامناسب میتواند به نقض گسترده حریم خصوصی منجر شود.
هر چیزی که آنلاین به اشتراک میگذارید، ممکن است روزی عمومی شود. حتی اگر فکر میکنید کاملاً خصوصی است.
با پیشرفت روزافزون هوش مصنوعی، باید هوشیارتر باشیم. شاید وقت آن رسیده که بپذیریم در دنیای دیجیتال، هیچچیز واقعاً خصوصی نمیماند. این درسی است که OpenAI به بهای خدشهدار شدن اعتمادش به ما می دهد.
نی دهد. ما نیز ز آن بیزیم د