خبرنامه وکیل سایبری (24 اسفند)

بسمه تعالی

خبرنامه وکیل سایبری

آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.

این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.

24 اسفند 1402




خبر اول:

هوش مصنوعی نمی تواند جایگزین دانشمندان شود !

دانشمندان به دنبال ابزارهای هوش مصنوعی هستند که به کار علمی کمک می کنند. اما، تحقیقات نشان می دهد که اعتماد به هوش مصنوعی ممکن است منجر به نتایج بیشتر اما درک کمتری شود.

به نظر می‌رسد که جامعه دانشگاهی مملو از افراد خوش‌بین به فناوری می باشد و هوش مصنوعی را نه تنها به عنوان بخش مهمی از فرایند تحقیقاتی، بلکه کلیدی برای غلبه بر مسائل بهره‌وری، بودجه‌های ثابت و بی طرفی که برای محققان انسانی اجتناب‌ناپذیر می باشد، تصور می‌کنند.

از آزمایشگاه‌های «خودمحور» و هوش مصنوعی مولد به‌جای مشارکت‌کنندگان انسانی گرفته تا نوشتن مقالات تحقیقاتی به کمک هوش مصنوعی ، به نظر می‌رسد که هوش مصنوعی پتانسیل تبدیل شدن به یک واحد تحقیقاتی مستقل را دارد. در حالی که چنین تحقیقات مستقلی هنوز بیشتر شبیه داستان های علمی تخیلی به نظر می رسد، اما ارجاعات به هوش مصنوعی در مقالات تحقیقاتی و پتنت ها در حال افزایش می باشد.

با وجود تبلیغات، تحقیقات منتشر شده در مجله نیچر کاستی های بالقوه چنین رویکرد خوشبینانه ای را در مورد نقش هوش مصنوعی در علم را مشخص می کند. هوش مصنوعی به دلیل انواع نگرانی های اخلاقی، از جمله سوگیری الگوریتمی، هزینه های زیست محیطی، و "توهمات" هوش مصنوعی برای ارائه اطلاعات جعلی مورد هدف قرار گرفته است.

پژوهشگران دانشگاه‌های ییل و پرینستون چهار روشی را که دانشمندان، نقش بلندمدت هوش مصنوعی در کارهای علمی را تصور می‌کنند، شناسایی کرده‌اند.

یکی از دیدگاه ها، هوش مصنوعی را «مفهومی» در نظر می گیرد که قادر به پردازش ادبیات گسترده، ارزیابی کیفیت منبع، و ایجاد فرضیه می باشد. اتوماسیون به عنوان راهی برای افزایش دقت و به حداقل رساندن سوگیری تحقیق در نظر گرفته می شود.

یکی دیگر از نقش‌های هوش مصنوعی که محققان آن را «Surogate» نامیده‌اند، شبیه‌سازی داده‌ها می باشد. به عنوان مثال، هوش مصنوعی مولد می‌تواند مطالعه پدیده‌هایی با دسترسی محدود به داده‌ها، مانند ستارگان و کهکشان‌ها را با ایجاد داده‌های اضافی برای تقویت تحقیقات، افزایش دهد.

در علوم اجتماعی، هوش مصنوعی به عنوان یک شرکت کننده تحقیقاتی بالقوه برای پاسخ به پرسشنامه ها دیده می شود. اگر ابزارهای هوش مصنوعی مولد به خوبی آموزش داده شوند، تصور می‌شود که طیف وسیعی از تجربیات و دیدگاه‌های انسانی را نشان می‌دهند و تصویر دقیق‌تری از رفتار و پویایی‌های اجتماعی نسبت به روش‌های سنتی ارائه می‌دهند.

هوش مصنوعی پیش‌بینی‌کننده که توسط محققان «Quant» نامیده می‌شود، می‌تواند الگوهایی را در حجم عظیمی از داده‌ها کشف کند که قابل پیش‌بینی هستند اما فراتر از دسترس شناختی انسان هستند. در زیست‌شناسی، ابزارهای هوش مصنوعی پیش‌بینی‌کننده در حال حاضر برای کارهایی مانند حاشیه‌نویسی خودکار عملکرد پروتئین و شناسایی نوع سلول استفاده می‌شوند. به طور مشابه، در علوم اجتماعی، ابزارهای مولد هوش مصنوعی به عنوان راه‌حل‌هایی برای حاشیه‌نویسی و تفسیر متن، تصاویر و داده‌های کیفی مورد بررسی قرار می‌گیرند . این وظایف قبلاً به تلاش گسترده انسانی نیاز داشته است.

پیش‌بینی می‌شود که هوش مصنوعی در آخرین مرحله فرایند تحقیقاتی به کار گرفته شود و به عنوان ابزار نظارتی در مرحله بررسی تحقیق عمل کند که راه‌حلی برای بررسی‌های کم‌هزینه، سریع و دقیق محسوب می شود.

این دیدگاه‌های هوش مصنوعی به خاطر غلبه بر محدودیت‌های انسانی ستایش می‌شوند و به این دلیل به طور خاص به شکلی مانند "فوق‌بشری" در ذهن‌ها تصور می‌شوند که احتمالاً اعتماد دانشی را تقویت می‌کند.

محققان هشدار می دهند که علیرغم پتانسیل هوش مصنوعی برای نوآوری در علم، استفاده گسترده از آن در علم خطر تولید بیشتر اما درک کمتر را به همراه دارد.

اگر افراد برای جبران محدودیت‌های شناختی خود به ابزارهای هوش مصنوعی اعتماد کنند، می‌تواند منجر به تمرکز علمی محدودی شود که در آن روش‌ها و ایده‌های خاصی غالب هستند، نوآوری را محدود می‌کند و احتمال خطا را افزایش می‌دهد.

استفاده از ابزارهای هوش مصنوعی در نهایت ممکن است منجر به ایجاد "تک‌نوعیت‌های علمی" شود که در واقع به معنای کمبود تنوع و برتری یک رویکرد یا روش خاص در علم می‌باشد. برای مثال در زمینه کشاورزی ، تک‌نوعیت‌های کشاورزی، مزرعه‌هایی هستند که فقط یک نوع گیاه را کشت می‌کنند و از این رو به حملات آفات و بیماری‌ها حساس‌تر هستند. محققان بر این باورند که درک ناکافی از محدودیت‌ها و دقت پیش‌بینی‌های هوش مصنوعی در زمینه‌هایی که خارج از رشته علوم کامپیوتر هستند، وجود دارد.

هنگامی که هوش مصنوعی جایگزین شرکت کنندگان انسانی در تحقیقات کیفی شود، ممکن است تفاوت های ظریف زمینه ای و جزئیات محلی خاص را که روش های کیفی معمولاً حفظ می کنند، حذف کند.

علاوه بر این، انتخاب و سازمان‌دهی داده‌های آموزشی هوش مصنوعی و ایجاد یک فرآیند آموزشی به تصمیم‌گیری‌های تحت تأثیر انسان زیادی نیاز دارد که می‌تواند الگوریتم‌ها را با ارزش‌های سازندگان آن‌ها تحت تأثیر قرار دهد. این تصمیمات که اغلب توسط رشته های خاص شکل می گیرد، می تواند محققان مختلف را به نتیجه گیری های متفاوتی از همان داده های اولیه سوق دهد.

محققان مدعی اند که دانش علمی توسط جنبه های اجتماعی تحقیق شکل می گیرد و تحت تأثیر دیدگاه های ذهنی دانشمندان قرار می گیرد. تیم هایی که از نظر شناختی، جمعیت شناختی و اخلاقی متنوع هستند، در حل مسئله موثرتر هستند و به عنوان ثبت اختراع با کیفیت و تاثیر بالاتر شناخته شده اند. اعتماد به هوش مصنوعی عنصر تنوع را از بین می برد و توهم بی طرفی را ایجاد می کند.

با این حال، محققان از کنار گذاشتن کامل هوش مصنوعی در زمینه تحقیقاتی حمایت نمی کنند، بلکه نسبت به خطرات احتمالی هشدار می دهند.

دانشمندانی که علاقه مند به استفاده از هوش مصنوعی در تحقیقات خود هستند و محققانی که هوش مصنوعی را مطالعه می کنند، باید در حال حاضر که برنامه های کاربردی هوش مصنوعی هنوز نوپا هستند این خطرات را اکنون ارزیابی کنند، چون اگر ابزارهای هوش مصنوعی عمیقاً در فرایند تحقیقاتی جاسازی شوند، رسیدگی به آنها بسیار دشوار خواهد بود. .

منبع خبر : cybernews


خبر دوم:

آسیب‌پذیری افزونه های ChatGPT در برابر عوامل تهدید

بر اساس اعلام شرکت نرم‌افزاری Salt Labs ، افزونه‌های ChatGPT که به آن اجازه تعامل با برنامه‌ها و سرویس‌های خارجی را می‌دهند، دارای آسیب‌پذیری‌هایی هستند که می‌توانند در طول یک حمله سایبری مورد سوء استفاده قرار گیرند.

تیم تحقیقاتی این شرکت سه مورد نقص در خود ChatGPT، یکی با PluginLab(که در مدل هوش مصنوعی استفاده می‌شود) و دیگری با OAuth (برای تأیید تعامل بین برنامه‌ها) را شناسایی کرده است. با اینکه چنین افزونه هایی بسیار مفید هستند، اما اجازه به اشتراک گذاری داده های شخص ثالث که می تواند توسط مجرمان سایبری مورد سوء استفاده قرار گیرد را فراهم می کنند.

از آنجایی که سازمان‌های زیادی از این نوع فناوری استفاده می‌کنند، مهاجمان هم تلاش‌های خود را بر روی این مسئله معطوف می‌کنند و روش هایی برای بهره‌برداری از این ابزارها و متعاقباً دسترسی به داده‌های حساس پیدا می‌کنند.

آسیب‌پذیری اخیر شناسایی شده در ChatGPT ، بر اهمیت محافظت از افزونه‌ها در چنین فناوری‌هایی تاکید می کند. در واقع باید اطمینان حاصل شود که مهاجمان نمی‌توانند به دارایی‌های مهم تجاری دسترسی داشته باشند و عملیات تصاحب حساب‌ها را انجام دهند.

نقص ChatGPT زمانی رخ می دهد که مدل هوش مصنوعی کاربران را برای دریافت کد دسترسی امنیتی به یک وب سایت افزونه هدایت کند. محققان Salt Labs متوجه شده اند که یک مهاجم می‌تواند از این عملکرد برای ارائه تأییدیه کد با یک افزونه مخرب سوء استفاده کند به طور خودکار مجوزهایش را بر روی حساب قربانی نصب کند.

دومین آسیب پذیری، مربوط به وب سایت PluginLab مرتبط با هوش مصنوعی می باشد. محققان Salt Labs متوجه شده اند که وب‌سایت به درستی حساب‌های کاربری را تأیید نمی‌کند، بنابراین به مهاجم اجازه می‌دهد تا شناسه کاربری دیگری را وارد کند و کدی را دریافت کند که می تواند حساب کاربری را در افزونه تصاحب کند.

آسیب سوم مربوط به چندین افزونه مربوط به تغییر مسیر OAuth می باشد که می تواند توسط یک عامل تهدید که یک لینک آلوده را برای یک کاربر ناآگاه ارسال می کند، دستکاری شود.

همه افزونه‌هایی که توسط Salt Labs مشخص شده‌اند، URL‌ها را تأیید نمی‌کنند، و به همین دلیل، استفاده از آن‌ها باعث می‌شود قربانیان در معرض سرقت اعتبار خود قرار گیرند و مسیر برای تصاحب حساب توسط یک مهاجم هموار شود.

منبع خبر : /i-hls.com


خبر سوم:

تکنولوژی دوربین مخفی جدید جهت مقابله با تشخیص لیزر

محققان موسسه تحقیقاتی Southwest در تگزاس، ابزارهای رانندگی خودکار مبتنی بر دوربین را توسعه دادند که می تواند بدون استفاده از فناوری هایی مانند LIDAR و RADAR کار کند. این نوآوری می تواند برای قابلیت های مخفی کاری نظامی و همچنین در کاربردهای فضا و کشاورزی مفید باشد.

راه حل های مدرن رانندگی خودکار از حسگرهای تشخیص نور و محدوده (LiDAR) برای تجسم اشیاء اطراف خودرو استفاده می کنند. لیزرهای پرانرژی برای تعیین عمق و فاصله از اجسام مختلف به همه جهات فرستاده می شوند. سپس داده‌ها به یک راه‌حل نرم‌افزاری فرستاده می‌شود که اشیاء را شناسایی می‌کند و به رایانه خودرو کمک می‌کند تا تصمیم بگیرد که آیا باید متوقف شود یا سرعتش را کم کند.

با این که، این فناوری برای حمل و نقل غیرنظامی کار می کند، اما چراغ های حسگرهای LiDAR به راحتی قابل تشخیص هستند، و در صورت استفاده در وسایل نقلیه نظامی می توانند به راحتی مکان یک واحد را به خطر بیندازند. این روند شبیه به فناوری رادار می باشد که از امواج رادیویی (که به راحتی قابل تشخیص می باشد) و GPS که از ماهواره ها استفاده می کند (که به راحتی می توان آنها را مسدود کرد) استفاده می کند.

محققان به این مسئله با ایجاد "Vision for Off-Road Autonomy (VORA)" پاسخ دادند که یک مجموعه ابزار برای دریافت فعالیت‌های اجسام، ایجاد مدل‌های محیطی، و محلی‌سازی واحدها در نقشه، حتی در محیط‌های خارج از جاده. می باشد.

محققان این سیستم را به عنوان جایگزینی برای LiDAR ایجاد کردند که از دوربین‌ها استفاده می‌کند زیرا سیگنال‌های نوری یا لیزری منتشر نمی‌کنند. با این حال، برای استفاده از داده های دوربین برای انجام وظایف با دقت بالا، تیم مجبور به توسعه نرم افزار جدید شده است. بنابراین، آنها یک تطبیق استریو یادگیری عمیق (DLSM) ابزاری مبتنی بر شبکه عصبی برای ایجاد نقشه های متراکم با بکارگیری داده های دوربین با استفاده از نابرابری یا تفاوت بین حرکت در تصاویر استریو برای ایجاد نقشه های بسیار دقیق ایجاد کرده اند..

محققان معتقدند که از قابلیت های VORA می توان برای بسیاری از برنامه های کاربردی دیگر استفاده کرد. برای مثال، می‌تواند در اکتشافات سیاره‌ای به کار گرفته شود که در آنجا وسایل نقلیه خودران در سیارات دیگر می‌توانند از سیستم مبتنی بر دوربین کارآمد انرژی بهره‌مند شوند. همچنین می‌تواند برای کمک به اتوماسیون کشاورزی در مناطقی که دسترسی به سیگنال‌های GPS مانند دره‌ها و دامنه‌های کوهستانی دشوار می باشد، استفاده شود.

منبع خبر : Interesting Engineering