آیتیکل | Aiticle
آیتیکل | Aiticle
خواندن ۴ دقیقه·۷ ماه پیش

کارمندان فعلی و سابق خواستار حق هشداردهی درباره‌ی هوش مصنوعی هستند

حواشی شرکت openai پایانی ندارد
حواشی شرکت openai پایانی ندارد


شرکت OpenAI ظاهراً در میانه‌ی یک ناآرامی داخلی طولانی مدت قرار دارد که آخرین نقطه‌ی عطف آن، نامه‌ای عمومی از گروهی از کارمندان فعلی و سابق این شرکت بود که هوش مصنوعی را به چالش کشیدند. این نامه، نگرانی‌هایی را درباره‌ی خطرات هوش مصنوعی و رفتار شرکت‌های فناوری مطرح کرد که نشان‌دهنده‌ی یک شورش درونی در OpenAI است.

OpenAI در میانه‌ی یک ناآرامی داخلی

OpenAI، شرکتی که زمانی هدف خود را ساخت هوش مصنوعی برای نفع همه‌ی بشریت قرار داده‌بود، اکنون با انتقاداتی مواجه است که نشان‌دهنده‌ی یک ناآرامی داخلی طولانی مدت است. آخرین نقطه‌ی عطف این ناآرامی، نامه‌ای عمومی بود که در آن، کارمندان فعلی و سابق این شرکت، هوش مصنوعی را به چالش کشیدند. در این نامه، امضاکنندگان هوش مصنوعی را به‌عنوان یک فناوری قدرتمند اما خطرناک توصیف کردند و اظهار داشتند که شرکت‌های پیشرو در زمینه‌ی هوش مصنوعی، از جمله OpenAI، ایمنی کافی را رعایت نمی‌کنند و در رقابت برای عرضه‌ی سریع محصولات، خطرات را نادیده می‌گیرند.

داستان آشنای طمع شرکت‌ها

نامه‌ی کارمندان OpenAI، داستانی آشنا از طمع شرکت‌ها را روایت می‌کند. در این نامه آمده‌است که هوش مصنوعی ممکن است خطراتی را به همراه داشته‌باشد، اما شرکت‌های فناوری، از جمله OpenAI، روش‌های ایمنی را فدای سرعت در عرضه‌ی محصولات می‌کنند. آن‌ها معتقدند که دولت‌ها و مقررات آن‌ها قادر به نظارت بر این فناوری در حال پیشرفت نیستند و کارمندان این شرکت‌ها نیز از صحبت کردن درباره‌ی نگرانی‌های خود می‌ترسند. این نامه نشان‌دهنده‌ی یک نافرمانی درونی در OpenAI است که توسط کارمندان فعلی و سابق آن رهبری می‌شود.

هوش مصنوعی: قدرتمند اما خطرناک

هوش مصنوعی به‌عنوان یک فناوری قدرتمند شناخته می‌شود که می‌تواند تأثیر عمیقی بر جامعه داشته‌باشد. امضاکنندگان نامه‌ی OpenAI بر این باورند که هوش مصنوعی ممکن است خطراتی را به همراه داشته‌باشد، از جمله توانایی آن در فریب دادن، ایجاد نفرت، و تأثیر منفی بر شغل‌ها و اقتصاد. آن‌ها استدلال می‌کنند که شرکت‌های فناوری، از جمله OpenAI، این خطرات را نادیده می‌گیرند و فناوری را بدون در نظر گرفتن پیامدهای احتمالی آن توسعه می‌دهند. این نامه نشان‌دهنده‌ی یک نگرانی عمیق در میان کارمندان فعلی و سابق OpenAI است که احساس می‌کنند شرکت در مسیر اشتباهی قرار گرفته‌است.

تغییر هدف: از نفع بشریت تا تجاری‌سازی

OpenAI زمانی با هدف ساخت هوش مصنوعی برای نفع همه‌ی بشریت بنیان گذاشته‌شد. با این وجود، در ماه‌های اخیر، این شرکت توجه خود را به سمت تجاری‌سازی معطوف کرده‌است. آن‌ها نرم‌افزارهای سازمانی را معرفی کرده‌اند، قراردادهای بزرگی با شرکت‌های دیگر بسته‌اند و محصولات مصرفی را عرضه کرده‌اند. این تغییرات، انتقاداتی را برانگیخته‌است که OpenAI از هدف بنیان‌گذاری خود فاصله گرفته‌است. کارمندان فعلی و سابق معتقدند که شرکت بیش‌ازحد بر سود متمرکز شده‌است و ایمنی و پیامدهای اجتماعی فناوری را نادیده می‌گیرد.

جنجال‌ها و اتهامات: از صدای اسکارلت جوهانسون تا انتقام از کارمندان

OpenAI در مسیر تجاری‌سازی خود، جنجال‌ها و اتهاماتی را نیز به همراه داشته‌است. آن‌ها یک دستیار هوش مصنوعی توسعه دادند که صدای آن به‌طور غیرقابل‌توصیفی شبیه به اسکارلت جوهانسون بود، علی‌رغم مخالفت‌های مکرر او. این شرکت همچنین با اتهاماتی مبنی بر اولویت‌دادن سود بر ایمنی، انتقام‌جویی از کارمندان و خفه‌کردن رقابت مواجه است. محققان سابق، اعضای هیئت‌مدیره و نهادهای نظارتی، OpenAI را به بی‌توجهی به پیامدهای فناوری خود متهم کرده‌اند.

حق هشداردهی: درخواست کارمندان برای نظارت مستقل

نامه‌ی کارمندان OpenAI، خواستار «حق هشداردهی» برای کارمندان این شرکت‌ها است. آن‌ها معتقدند که کارمندان باید قادر باشند بدون ترس از انتقام‌جویی، درباره‌ی نگرانی‌های خود در مورد هوش مصنوعی صحبت کنند. آن‌ها همچنین خواستار نظارت مستقل و اساسی بر شرکت‌های هوش مصنوعی هستند. امضاکنندگان نامه بر این باورند که شرکت‌های هوش مصنوعی، از جمله OpenAI، نمی‌توانند خود را تنظیم کنند و نیاز به یک نظارت خارجی وجود دارد. آن‌ها استدلال می‌کنند که هوش مصنوعی خطراتی را به همراه دارد که نیاز به مدیریت و نظارت مؤثر دارد.

OpenAI و آینده‌ی هوش مصنوعی

OpenAI در میانه‌ی یک ناآرامی داخلی طولانی مدت قرار دارد که نشان‌دهنده‌ی یک نگرانی عمیق در مورد مسیر فعلی توسعه‌ی هوش مصنوعی است. کارمندان فعلی و سابق این شرکت، خواستار حق هشداردهی و نظارت مستقل هستند. آن‌ها معتقدند که هوش مصنوعی قدرتمند است اما باید به‌دقت توسعه و مدیریت شود. آینده‌ی OpenAI و هوش مصنوعی به نحوه‌ی پاسخ‌گویی به این نگرانی‌ها بستگی دارد.



منبع : Atlantic

🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
هوش مصنوعیopenaiخطرات هوش مصنوعی
خبرها و مقالات به روز دنیای هوش‌مصنوعی «به فارسی» Ai Article
شاید از این پست‌ها خوشتان بیاید