من علیرضا طباطبایی وکیل پایه یک با همکاری جمعی از وکلا، مهندسان کامپیوتر و کارشناسان جرائم رایانه ای در سال ۹۳ گروه حقوقی تخصصی وکیل سایبری را تاسیس کردم. اینجا مطالب روز دانش حقوقی جهان را دنبال کنید
خبرنامه وکیل سایبری (24 اسفند)
بسمه تعالی
خبرنامه وکیل سایبری
آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.
این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.
24 اسفند 1402
خبر اول:
هوش مصنوعی نمی تواند جایگزین دانشمندان شود !
دانشمندان به دنبال ابزارهای هوش مصنوعی هستند که به کار علمی کمک می کنند. اما، تحقیقات نشان می دهد که اعتماد به هوش مصنوعی ممکن است منجر به نتایج بیشتر اما درک کمتری شود.
به نظر میرسد که جامعه دانشگاهی مملو از افراد خوشبین به فناوری می باشد و هوش مصنوعی را نه تنها به عنوان بخش مهمی از فرایند تحقیقاتی، بلکه کلیدی برای غلبه بر مسائل بهرهوری، بودجههای ثابت و بی طرفی که برای محققان انسانی اجتنابناپذیر می باشد، تصور میکنند.
از آزمایشگاههای «خودمحور» و هوش مصنوعی مولد بهجای مشارکتکنندگان انسانی گرفته تا نوشتن مقالات تحقیقاتی به کمک هوش مصنوعی ، به نظر میرسد که هوش مصنوعی پتانسیل تبدیل شدن به یک واحد تحقیقاتی مستقل را دارد. در حالی که چنین تحقیقات مستقلی هنوز بیشتر شبیه داستان های علمی تخیلی به نظر می رسد، اما ارجاعات به هوش مصنوعی در مقالات تحقیقاتی و پتنت ها در حال افزایش می باشد.
با وجود تبلیغات، تحقیقات منتشر شده در مجله نیچر کاستی های بالقوه چنین رویکرد خوشبینانه ای را در مورد نقش هوش مصنوعی در علم را مشخص می کند. هوش مصنوعی به دلیل انواع نگرانی های اخلاقی، از جمله سوگیری الگوریتمی، هزینه های زیست محیطی، و "توهمات" هوش مصنوعی برای ارائه اطلاعات جعلی مورد هدف قرار گرفته است.
پژوهشگران دانشگاههای ییل و پرینستون چهار روشی را که دانشمندان، نقش بلندمدت هوش مصنوعی در کارهای علمی را تصور میکنند، شناسایی کردهاند.
یکی از دیدگاه ها، هوش مصنوعی را «مفهومی» در نظر می گیرد که قادر به پردازش ادبیات گسترده، ارزیابی کیفیت منبع، و ایجاد فرضیه می باشد. اتوماسیون به عنوان راهی برای افزایش دقت و به حداقل رساندن سوگیری تحقیق در نظر گرفته می شود.
یکی دیگر از نقشهای هوش مصنوعی که محققان آن را «Surogate» نامیدهاند، شبیهسازی دادهها می باشد. به عنوان مثال، هوش مصنوعی مولد میتواند مطالعه پدیدههایی با دسترسی محدود به دادهها، مانند ستارگان و کهکشانها را با ایجاد دادههای اضافی برای تقویت تحقیقات، افزایش دهد.
در علوم اجتماعی، هوش مصنوعی به عنوان یک شرکت کننده تحقیقاتی بالقوه برای پاسخ به پرسشنامه ها دیده می شود. اگر ابزارهای هوش مصنوعی مولد به خوبی آموزش داده شوند، تصور میشود که طیف وسیعی از تجربیات و دیدگاههای انسانی را نشان میدهند و تصویر دقیقتری از رفتار و پویاییهای اجتماعی نسبت به روشهای سنتی ارائه میدهند.
هوش مصنوعی پیشبینیکننده که توسط محققان «Quant» نامیده میشود، میتواند الگوهایی را در حجم عظیمی از دادهها کشف کند که قابل پیشبینی هستند اما فراتر از دسترس شناختی انسان هستند. در زیستشناسی، ابزارهای هوش مصنوعی پیشبینیکننده در حال حاضر برای کارهایی مانند حاشیهنویسی خودکار عملکرد پروتئین و شناسایی نوع سلول استفاده میشوند. به طور مشابه، در علوم اجتماعی، ابزارهای مولد هوش مصنوعی به عنوان راهحلهایی برای حاشیهنویسی و تفسیر متن، تصاویر و دادههای کیفی مورد بررسی قرار میگیرند . این وظایف قبلاً به تلاش گسترده انسانی نیاز داشته است.
پیشبینی میشود که هوش مصنوعی در آخرین مرحله فرایند تحقیقاتی به کار گرفته شود و به عنوان ابزار نظارتی در مرحله بررسی تحقیق عمل کند که راهحلی برای بررسیهای کمهزینه، سریع و دقیق محسوب می شود.
این دیدگاههای هوش مصنوعی به خاطر غلبه بر محدودیتهای انسانی ستایش میشوند و به این دلیل به طور خاص به شکلی مانند "فوقبشری" در ذهنها تصور میشوند که احتمالاً اعتماد دانشی را تقویت میکند.
محققان هشدار می دهند که علیرغم پتانسیل هوش مصنوعی برای نوآوری در علم، استفاده گسترده از آن در علم خطر تولید بیشتر اما درک کمتر را به همراه دارد.
اگر افراد برای جبران محدودیتهای شناختی خود به ابزارهای هوش مصنوعی اعتماد کنند، میتواند منجر به تمرکز علمی محدودی شود که در آن روشها و ایدههای خاصی غالب هستند، نوآوری را محدود میکند و احتمال خطا را افزایش میدهد.
استفاده از ابزارهای هوش مصنوعی در نهایت ممکن است منجر به ایجاد "تکنوعیتهای علمی" شود که در واقع به معنای کمبود تنوع و برتری یک رویکرد یا روش خاص در علم میباشد. برای مثال در زمینه کشاورزی ، تکنوعیتهای کشاورزی، مزرعههایی هستند که فقط یک نوع گیاه را کشت میکنند و از این رو به حملات آفات و بیماریها حساستر هستند. محققان بر این باورند که درک ناکافی از محدودیتها و دقت پیشبینیهای هوش مصنوعی در زمینههایی که خارج از رشته علوم کامپیوتر هستند، وجود دارد.
هنگامی که هوش مصنوعی جایگزین شرکت کنندگان انسانی در تحقیقات کیفی شود، ممکن است تفاوت های ظریف زمینه ای و جزئیات محلی خاص را که روش های کیفی معمولاً حفظ می کنند، حذف کند.
علاوه بر این، انتخاب و سازماندهی دادههای آموزشی هوش مصنوعی و ایجاد یک فرآیند آموزشی به تصمیمگیریهای تحت تأثیر انسان زیادی نیاز دارد که میتواند الگوریتمها را با ارزشهای سازندگان آنها تحت تأثیر قرار دهد. این تصمیمات که اغلب توسط رشته های خاص شکل می گیرد، می تواند محققان مختلف را به نتیجه گیری های متفاوتی از همان داده های اولیه سوق دهد.
محققان مدعی اند که دانش علمی توسط جنبه های اجتماعی تحقیق شکل می گیرد و تحت تأثیر دیدگاه های ذهنی دانشمندان قرار می گیرد. تیم هایی که از نظر شناختی، جمعیت شناختی و اخلاقی متنوع هستند، در حل مسئله موثرتر هستند و به عنوان ثبت اختراع با کیفیت و تاثیر بالاتر شناخته شده اند. اعتماد به هوش مصنوعی عنصر تنوع را از بین می برد و توهم بی طرفی را ایجاد می کند.
با این حال، محققان از کنار گذاشتن کامل هوش مصنوعی در زمینه تحقیقاتی حمایت نمی کنند، بلکه نسبت به خطرات احتمالی هشدار می دهند.
دانشمندانی که علاقه مند به استفاده از هوش مصنوعی در تحقیقات خود هستند و محققانی که هوش مصنوعی را مطالعه می کنند، باید در حال حاضر که برنامه های کاربردی هوش مصنوعی هنوز نوپا هستند این خطرات را اکنون ارزیابی کنند، چون اگر ابزارهای هوش مصنوعی عمیقاً در فرایند تحقیقاتی جاسازی شوند، رسیدگی به آنها بسیار دشوار خواهد بود. .
منبع خبر : cybernews
خبر دوم:
آسیبپذیری افزونه های ChatGPT در برابر عوامل تهدید
بر اساس اعلام شرکت نرمافزاری Salt Labs ، افزونههای ChatGPT که به آن اجازه تعامل با برنامهها و سرویسهای خارجی را میدهند، دارای آسیبپذیریهایی هستند که میتوانند در طول یک حمله سایبری مورد سوء استفاده قرار گیرند.
تیم تحقیقاتی این شرکت سه مورد نقص در خود ChatGPT، یکی با PluginLab(که در مدل هوش مصنوعی استفاده میشود) و دیگری با OAuth (برای تأیید تعامل بین برنامهها) را شناسایی کرده است. با اینکه چنین افزونه هایی بسیار مفید هستند، اما اجازه به اشتراک گذاری داده های شخص ثالث که می تواند توسط مجرمان سایبری مورد سوء استفاده قرار گیرد را فراهم می کنند.
از آنجایی که سازمانهای زیادی از این نوع فناوری استفاده میکنند، مهاجمان هم تلاشهای خود را بر روی این مسئله معطوف میکنند و روش هایی برای بهرهبرداری از این ابزارها و متعاقباً دسترسی به دادههای حساس پیدا میکنند.
آسیبپذیری اخیر شناسایی شده در ChatGPT ، بر اهمیت محافظت از افزونهها در چنین فناوریهایی تاکید می کند. در واقع باید اطمینان حاصل شود که مهاجمان نمیتوانند به داراییهای مهم تجاری دسترسی داشته باشند و عملیات تصاحب حسابها را انجام دهند.
نقص ChatGPT زمانی رخ می دهد که مدل هوش مصنوعی کاربران را برای دریافت کد دسترسی امنیتی به یک وب سایت افزونه هدایت کند. محققان Salt Labs متوجه شده اند که یک مهاجم میتواند از این عملکرد برای ارائه تأییدیه کد با یک افزونه مخرب سوء استفاده کند به طور خودکار مجوزهایش را بر روی حساب قربانی نصب کند.
دومین آسیب پذیری، مربوط به وب سایت PluginLab مرتبط با هوش مصنوعی می باشد. محققان Salt Labs متوجه شده اند که وبسایت به درستی حسابهای کاربری را تأیید نمیکند، بنابراین به مهاجم اجازه میدهد تا شناسه کاربری دیگری را وارد کند و کدی را دریافت کند که می تواند حساب کاربری را در افزونه تصاحب کند.
آسیب سوم مربوط به چندین افزونه مربوط به تغییر مسیر OAuth می باشد که می تواند توسط یک عامل تهدید که یک لینک آلوده را برای یک کاربر ناآگاه ارسال می کند، دستکاری شود.
همه افزونههایی که توسط Salt Labs مشخص شدهاند، URLها را تأیید نمیکنند، و به همین دلیل، استفاده از آنها باعث میشود قربانیان در معرض سرقت اعتبار خود قرار گیرند و مسیر برای تصاحب حساب توسط یک مهاجم هموار شود.
منبع خبر : /i-hls.com
خبر سوم:
تکنولوژی دوربین مخفی جدید جهت مقابله با تشخیص لیزر
محققان موسسه تحقیقاتی Southwest در تگزاس، ابزارهای رانندگی خودکار مبتنی بر دوربین را توسعه دادند که می تواند بدون استفاده از فناوری هایی مانند LIDAR و RADAR کار کند. این نوآوری می تواند برای قابلیت های مخفی کاری نظامی و همچنین در کاربردهای فضا و کشاورزی مفید باشد.
راه حل های مدرن رانندگی خودکار از حسگرهای تشخیص نور و محدوده (LiDAR) برای تجسم اشیاء اطراف خودرو استفاده می کنند. لیزرهای پرانرژی برای تعیین عمق و فاصله از اجسام مختلف به همه جهات فرستاده می شوند. سپس دادهها به یک راهحل نرمافزاری فرستاده میشود که اشیاء را شناسایی میکند و به رایانه خودرو کمک میکند تا تصمیم بگیرد که آیا باید متوقف شود یا سرعتش را کم کند.
با این که، این فناوری برای حمل و نقل غیرنظامی کار می کند، اما چراغ های حسگرهای LiDAR به راحتی قابل تشخیص هستند، و در صورت استفاده در وسایل نقلیه نظامی می توانند به راحتی مکان یک واحد را به خطر بیندازند. این روند شبیه به فناوری رادار می باشد که از امواج رادیویی (که به راحتی قابل تشخیص می باشد) و GPS که از ماهواره ها استفاده می کند (که به راحتی می توان آنها را مسدود کرد) استفاده می کند.
محققان به این مسئله با ایجاد "Vision for Off-Road Autonomy (VORA)" پاسخ دادند که یک مجموعه ابزار برای دریافت فعالیتهای اجسام، ایجاد مدلهای محیطی، و محلیسازی واحدها در نقشه، حتی در محیطهای خارج از جاده. می باشد.
محققان این سیستم را به عنوان جایگزینی برای LiDAR ایجاد کردند که از دوربینها استفاده میکند زیرا سیگنالهای نوری یا لیزری منتشر نمیکنند. با این حال، برای استفاده از داده های دوربین برای انجام وظایف با دقت بالا، تیم مجبور به توسعه نرم افزار جدید شده است. بنابراین، آنها یک تطبیق استریو یادگیری عمیق (DLSM) ابزاری مبتنی بر شبکه عصبی برای ایجاد نقشه های متراکم با بکارگیری داده های دوربین با استفاده از نابرابری یا تفاوت بین حرکت در تصاویر استریو برای ایجاد نقشه های بسیار دقیق ایجاد کرده اند..
محققان معتقدند که از قابلیت های VORA می توان برای بسیاری از برنامه های کاربردی دیگر استفاده کرد. برای مثال، میتواند در اکتشافات سیارهای به کار گرفته شود که در آنجا وسایل نقلیه خودران در سیارات دیگر میتوانند از سیستم مبتنی بر دوربین کارآمد انرژی بهرهمند شوند. همچنین میتواند برای کمک به اتوماسیون کشاورزی در مناطقی که دسترسی به سیگنالهای GPS مانند درهها و دامنههای کوهستانی دشوار می باشد، استفاده شود.
منبع خبر : Interesting Engineering
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (25 دی)
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (16 اردیبهشت)
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (2 آبان)