ویرگول
ورودثبت نام
Mahdi Hazrati
Mahdi Hazrati
خواندن ۳۱ دقیقه·۱ سال پیش

پتانسیل شگفت انگیز ChatGPT - گِرگ براکمن-بنیانگذار OpenAI

داستان عمیق از پتانسیل شگفت انگیز ChatGPT ارائه توسط گرگ براکمن در تد
داستان عمیق از پتانسیل شگفت انگیز ChatGPT ارائه توسط گرگ براکمن در تد

ما OpenAI را هفت سال پیش شروع کردیم زیرا احساس می‌کردیم اتفاق جالبی در هوش مصنوعی در حال رخ دادن است و می‌خواستیم به هدایت آن در جهت مثبت کمک کنیم. انصافاً واقعاً شگفت‌انگیز است که می‌بینید از آن زمان تاکنون کل این رشته چقدر پیشرفت کرده است. و شنیدن سخنان افرادی مانند ریموند که از فناوری ما در حال ساختن ما استفاده می کنند و دیگران برای بسیاری از چیزهای شگفت انگیز واقعاً خوشحال کننده است. ما از افرادی می شنویم که هیجان زده هستند، از افرادی که نگران هستند می شنویم، از افرادی می شنویم که این دو احساس را به یکباره احساس می کنند. و صادقانه بگویم، ما این احساس را داریم. مهمتر از همه، به نظر می رسد که ما در حال ورود به یک دوره تاریخی هستیم که در آن به عنوان یک جهان، می خواهیم فناوری را تعریف کنیم که برای جامعه ما در آینده بسیار مهم خواهد بود. و من معتقدم که ما می توانیم این را برای همیشه مدیریت کنیم. بنابراین امروز، من می‌خواهم وضعیت فعلی آن فناوری و برخی از اصول طراحی اساسی را که برای ما عزیز است به شما نشان دهم. بنابراین اولین چیزی که می خواهم به شما نشان دهم این است که ساختن ابزاری برای هوش مصنوعی به جای ساختن آن برای انسان چگونه است. بنابراین ما یک مدل جدید DALL-E داریم که تصاویر را تولید می کند و آن را به عنوان یک برنامه برای ChatGPT برای استفاده از طرف شما در معرض دید قرار می دهیم. و می‌توانید کارهایی مانند بپرسید، می‌دانید، یک غذای خوب بعد از TED پیشنهاد کنید و از آن تصویر بکشید. (خنده حضار) حالا شما همه ایده‌ها و خلاقیت‌ها را پشت سر می‌گذارید و مراقب جزئیاتی هستید که از ChatGPT خارج می‌شوید. و در اینجا می رویم، این فقط ایده غذا نیست، بلکه یک گسترش بسیار بسیار دقیق است. پس بیایید ببینیم چه چیزی به دست خواهیم آورد. اما ChatGPT در این مورد فقط تصاویر تولید نمی کند -- متأسفیم، متن تولید نمی کند، بلکه یک تصویر نیز تولید می کند. و این چیزی است که واقعاً قدرت کارهایی را که می تواند از طرف شما انجام دهد در راستای اجرای قصد شما گسترش می دهد. و من اشاره می کنم، این همه یک نسخه نمایشی زنده است. همه اینها در حالی که ما صحبت می کنیم توسط هوش مصنوعی ایجاد می شود. بنابراین من در واقع حتی نمی دانم چه چیزی قرار است ببینیم. این فوق العاده به نظر می رسد. (تشویق حضار) من فقط به آن نگاه می کنم گرسنه می شوم. اکنون ChatGPT را با ابزارهای دیگر نیز گسترش داده ایم، به عنوان مثال، حافظه. می توانید بگویید "این را برای بعد ذخیره کنید." و نکته جالب در مورد این ابزارها این است که آنها بسیار قابل بازرسی هستند. بنابراین شما این پاپ کوچک را در اینجا دریافت می کنید که می گوید "از برنامه DALL-E استفاده کنید." و به هر حال، این برای شما، همه کاربران ChatGPT، در ماه های آینده خواهد آمد. و می توانید به زیر کاپوت نگاه کنید و ببینید که در واقع کاری که انجام داد نوشتن یک درخواست بود درست مانند یک انسان. و بنابراین شما به نوعی این توانایی را دارید که نحوه استفاده دستگاه از این ابزارها را بررسی کنید، که به ما امکان می‌دهد به آنها بازخورد ارائه کنیم. اکنون برای بعد ذخیره شده است، و اجازه دهید به شما نشان دهم که استفاده از آن اطلاعات و ادغام با سایر برنامه ها چگونه است. می‌توانید بگویید: «حالا یک لیست خرید برای چیز خوشمزه‌ای که قبلاً پیشنهاد دادم تهیه کنید.» و آن را برای هوش مصنوعی کمی دشوار کنید. و آن را برای همه بینندگان TED در آنجا توییت کنید." (خنده) بنابراین اگر این غذای فوق‌العاده و فوق‌العاده را درست می‌کنید، قطعاً می‌خواهم بدانم طعم آن چگونه است. اما می‌بینید که ChatGPT همه این ابزارهای مختلف را انتخاب می‌کند بدون اینکه مجبور باشم به صراحت بگویم در هر شرایطی از کدام یک استفاده کنم. و این، به نظر من، شیوه جدیدی از تفکر در مورد رابط کاربری را نشان می دهد. به عنوان مثال، ما خیلی عادت کرده‌ایم به این فکر کنیم، خوب، ما این برنامه‌ها را داریم، بین آنها کلیک می‌کنیم، بین آنها کپی/پیست می‌کنیم، و معمولاً این یک تجربه عالی در داخل یک برنامه است تا زمانی که منوها را بشناسید و همه چیز را بدانید. گزینه ها بله، من از شما می خواهم. بله لطفا. همیشه مودب بودن خوبه (خنده) و با داشتن این رابط زبانی یکپارچه در بالای ابزارها، هوش مصنوعی قادر است تمام آن جزئیات را از شما بگیرد. بنابراین لازم نیست شما کسی باشید که تک تک تکه های کوچکی از آنچه قرار است اتفاق بیفتد را بیان کنید. و همانطور که گفتم، این یک نسخه آزمایشی زنده است، بنابراین گاهی اوقات اتفاقات غیر منتظره ای برای ما رخ می دهد. اما بیایید نگاهی به لیست خرید Instacart بیاندازیم تا زمانی که در آن هستیم. و می توانید ببینید که ما لیستی از مواد تشکیل دهنده را به Instacart فرستادیم. در اینجا همه چیز شما نیاز دارید. و چیزی که واقعا جالب است این است که رابط کاربری سنتی هنوز هم بسیار ارزشمند است، درست است؟ اگر به این نگاه کنید، هنوز هم می توانید روی آن کلیک کنید و مقدار واقعی را تغییر دهید. و این چیزی است که من فکر می کنم نشان می دهد که آنها از بین نمی روند، رابط های کاربری سنتی. فقط ما یک راه جدید و تقویت شده برای ساخت آنها داریم. و اکنون ما یک توییت داریم که برای بررسی ما آماده شده است، که همچنین یک چیز بسیار مهم است. ما می‌توانیم روی «اجرا» کلیک کنیم، و در اینجا هستیم، ما مدیر هستیم، می‌توانیم بازرسی کنیم، اگر بخواهیم می‌توانیم کار هوش مصنوعی را تغییر دهیم. و بنابراین پس از این گفتگو، شما می توانید خودتان به آن دسترسی داشته باشید. و ما به آنجا می رویم. سرد. از همتون سپاسگذارم. (تشویق حضار) بنابراین ما به اسلایدها برمی گردیم. در حال حاضر، نکته مهم در مورد نحوه ساخت این ابزار، فقط ساخت این ابزارها نیست. این در مورد آموزش هوش مصنوعی نحوه استفاده از آنها است. مثلاً وقتی این سؤالات سطح بالا را می‌پرسیم، می‌خواهیم چه کار کند؟ و برای این کار از یک ایده قدیمی استفاده می کنیم. اگر به مقاله آلن تورینگ در سال 1950 در مورد آزمون تورینگ برگردید، او می گوید، شما هرگز پاسخی برای این موضوع برنامه ریزی نخواهید کرد. در عوض، می توانید آن را یاد بگیرید. شما می توانید ماشینی بسازید، مانند یک کودک انسان، و سپس آن را از طریق بازخورد آموزش دهید. یک معلم انسانی داشته باشید که در حین امتحان کردن چیزها و انجام کارهای خوب یا بد، پاداش ها و تنبیه ها را فراهم کند. و این دقیقاً نحوه آموزش ChatGPT است. این یک فرآیند دو مرحله ای است. اول، ما چیزی را تولید می کنیم که تورینگ آن را ماشین کودک می نامد، از طریق یک فرآیند یادگیری بدون نظارت. ما فقط کل دنیا، کل اینترنت را به آن نشان می‌دهیم و می‌گوییم: «پیش‌بینی کنید در متنی که قبلاً هرگز ندیده‌اید، چه اتفاقی می‌افتد». و این فرآیند آن را با انواع مهارت های شگفت انگیز آغشته می کند. به عنوان مثال، اگر یک مسئله ریاضی به شما نشان داده شود، تنها راه برای کامل کردن آن مسئله ریاضی، گفتن آنچه بعداً می آید، آن نه سبز، این است که واقعاً مسئله ریاضی را حل کنید. اما ما در واقع باید مرحله دوم را نیز انجام دهیم، که این است که به هوش مصنوعی آموزش دهیم که با این مهارت ها چه کند. و برای این، ما بازخورد ارائه می دهیم. ما از هوش مصنوعی می‌خواهیم چندین چیز را امتحان کند، چندین پیشنهاد به ما بدهد، و سپس یک انسان به آنها امتیاز می‌دهد و می‌گوید: «این یکی بهتر از آن یکی است». و این نه تنها چیز خاصی را که هوش مصنوعی گفته است، بلکه بسیار مهمتر، کل فرآیندی را که هوش مصنوعی برای تولید آن پاسخ استفاده کرده است، تقویت می کند. و این به آن اجازه تعمیم می دهد. این به آن اجازه می دهد تا آموزش دهد، قصد شما را به نوعی استنباط کند و آن را در سناریوهایی که قبلاً ندیده است، که بازخورد دریافت نکرده است، اعمال کند. اکنون، گاهی اوقات چیزهایی که ما باید به هوش مصنوعی آموزش دهیم، آن چیزی نیست که شما انتظار دارید. به عنوان مثال، زمانی که ما برای اولین بار GPT-4 را به آکادمی خان نشان دادیم، آنها گفتند: "وای، این خیلی عالی است، ما می توانیم چیزهای شگفت انگیزی به دانش آموزان آموزش دهیم. فقط یک مشکل، این است که دانش آموزان را دوباره چک نمی کند. اگر ریاضی بدی در آن وجود داشته باشد، با خوشحالی وانمود می کند که یک به علاوه یک برابر با سه است و با آن می دود." بنابراین مجبور شدیم برخی از داده های بازخورد را جمع آوری کنیم. خود سال خان بسیار مهربان بود و 20 ساعت از وقت خود را برای ارائه بازخورد به دستگاه در کنار تیم ما ارائه داد. و در طول چند ماه ما توانستیم به هوش مصنوعی آموزش دهیم که "هی، شما واقعاً باید در این نوع سناریوی خاص، انسان ها را پس بزنید." و ما در واقع پیشرفت های زیادی را در مدل ها از این طریق انجام داده ایم. و هنگامی که در ChatGPT آن انگشت شست را پایین می آورید، در واقع به نوعی مانند ارسال یک سیگنال خفاش به تیم ما است که می گوید: "اینجا نقطه ضعفی است که باید بازخورد جمع آوری کنید." و بنابراین وقتی این کار را انجام می‌دهید، این یکی از راه‌هایی است که ما واقعاً به کاربران خود گوش می‌دهیم و مطمئن می‌شویم که چیزی می‌سازیم که برای همه مفیدتر باشد. اکنون، ارائه بازخورد با کیفیت بالا کار سختی است. اگر به این فکر می‌کنید که از یک بچه بخواهید اتاقش را تمیز کند، اگر تمام کاری که انجام می‌دهید بررسی زمین است، نمی‌دانید که آیا فقط به او یاد می‌دهید که تمام اسباب‌بازی‌ها را در کمد قرار دهد یا خیر. به هر حال، این یک تصویر خوب از DALL-E است . و همین نوع استدلال در مورد هوش مصنوعی نیز صدق می کند. همانطور که به سمت وظایف سخت تر حرکت می کنیم، باید توانایی خود را برای ارائه بازخورد با کیفیت بالا افزایش دهیم. اما برای این کار، خود هوش مصنوعی خوشحال است که به شما کمک می کند. خوشحالیم که به ما کمک می کند تا بازخورد بهتری ارائه دهیم و توانایی خود را برای نظارت بر دستگاه با گذشت زمان افزایش دهیم. و اجازه دهید منظورم را به شما نشان دهم. به عنوان مثال، می‌توانید از GPT-4 سؤالی مانند این بپرسید، اینکه چقدر زمان بین این دو وبلاگ اساسی برای یادگیری بدون نظارت و یادگیری از بازخورد انسانی سپری شده است. و مدل میگه دو ماه گذشت. اما آیا این حقیقت دارد؟ مثلاً، این مدل‌ها 100 درصد قابل اعتماد نیستند، اگرچه هر بار که بازخورد ارائه می‌کنیم بهتر می‌شوند. اما ما در واقع می توانیم از هوش مصنوعی برای بررسی واقعیت استفاده کنیم. و در واقع می تواند کار خود را بررسی کند. می توانید بگویید، این را برای من بررسی کنید. اکنون، در این مورد، من در واقع ابزار جدیدی به هوش مصنوعی داده ام. این یک ابزار مرور است که در آن مدل می تواند پرس و جوهای جستجو را صادر کند و در صفحات وب کلیک کند. و در واقع کل زنجیره فکری خود را همانطور که انجام می دهد، می نویسد. می گوید، من فقط می خواهم این را جستجو کنم و در واقع جستجو را انجام می دهد. سپس تاریخ انتشار و نتایج جستجو را پیدا می کند. سپس درخواست جستجوی دیگری را صادر می کند. روی پست وبلاگ کلیک می کند. و همه اینها را می توانید انجام دهید، اما این یک کار بسیار خسته کننده است. این چیزی نیست که انسان واقعاً بخواهد انجام دهد. نشستن در صندلی راننده بسیار لذت بخش تر است ، قرار گرفتن در موقعیت مدیر که در صورت تمایل می توانید کار را سه بار بررسی کنید. و استنادها را بیرون بیاورید تا بتوانید به راحتی بروید و هر قطعه ای از کل این زنجیره استدلال را تأیید کنید. و در واقع معلوم شد که دو ماه اشتباه بوده است. دو ماه و یک هفته درست بود. (تشویق حضار) و ما به یک طرف کاهش می دهیم. و چیزی که در کل این فرآیند برای من بسیار جالب است این است که این همکاری چند مرحله ای بین یک انسان و یک هوش مصنوعی است. از آنجا که یک انسان، با استفاده از این ابزار حقیقت‌سنجی این کار را انجام می‌دهد تا داده‌هایی را برای هوش مصنوعی دیگری تولید کند تا برای انسان مفیدتر شود. و من فکر می‌کنم این واقعاً شکل چیزی را نشان می‌دهد که ما باید انتظار داشته باشیم که در آینده بسیار رایج‌تر شود، جایی که ما انسان‌ها و ماشین‌هایی را داریم که با دقت و ظرافتی طراحی شده‌اند که چگونه در یک مشکل قرار می‌گیرند و چگونه می‌خواهیم آن را حل کنیم. مسئله. ما اطمینان می‌دهیم که انسان‌ها مدیریت، نظارت، بازخورد و ماشین‌ها را به گونه‌ای کار می‌کنند که قابل بازرسی و قابل اعتماد باشد. و با هم می توانیم ماشین های قابل اعتمادتری را ایجاد کنیم. و من فکر می کنم که با گذشت زمان، اگر این روند را درست پیش ببریم، می توانیم مشکلات غیرممکن را حل کنیم. و برای اینکه بفهمید چقدر غیرممکن صحبت می کنم، فکر می کنم می توانیم تقریباً در هر جنبه ای از نحوه تعامل خود با رایانه ها تجدید نظر کنیم. به عنوان مثال، به صفحات گسترده فکر کنید. آنها از 40 سال پیش با VisiCalc به شکلی وجود داشته اند. من فکر نمی کنم آنها واقعاً در این مدت تغییر زیادی کرده باشند. و در اینجا یک صفحه گسترده خاص از تمام مقالات AI در arXiv در 30 سال گذشته است. حدود 167000 نفر از آنها وجود دارد. و شما می توانید داده ها را در اینجا ببینید. اما اجازه دهید به شما دیدگاه ChatGPT را در مورد نحوه تجزیه و تحلیل مجموعه داده ای مانند این نشان دهم. بنابراین می‌توانیم به ChatGPT به ابزار دیگری دسترسی داشته باشیم، این ابزار یک مفسر پایتون است، بنابراین می‌تواند کد را اجرا کند، درست مانند یک دانشمند داده. و بنابراین شما می توانید به معنای واقعی کلمه یک فایل آپلود کنید و در مورد آن سوال بپرسید. و بسیار مفید است، می دانید، نام فایل را می داند و مانند "اوه، این CSV است"، فایل مقدار جدا شده با کاما، "من آن را برای شما تجزیه می کنم." تنها اطلاعاتی که در اینجا وجود دارد، نام فایل، نام ستون‌هایی است که دیدید و سپس داده‌های واقعی. و از آن می توان استنباط کرد که این ستون ها در واقع چه معنایی دارند. مانند، آن اطلاعات معنایی در آنجا نبود. باید دانش جهانی خود را به گونه‌ای جمع کند که بداند: «اوه بله، arXiv سایتی است که افراد مقالاتی را ارسال می‌کنند و بنابراین این چیزها هستند و اینها مقادیر صحیح هستند و بنابراین تعدادی از نویسندگان در آن هستند. کاغذ، مانند همه اینها، این کاری است که انسان باید انجام دهد، و هوش مصنوعی خوشحال است که با آن کمک می کند. حالا من حتی نمی دانم چه می خواهم بپرسم. بنابراین خوشبختانه، می توانید از دستگاه بپرسید: "می توانم شما چند نمودار اکتشافی می سازید؟" و یک بار دیگر، این یک دستورالعمل فوق العاده سطح بالا است که در پشت آن اهداف زیادی وجود دارد. اما من حتی نمی دانم چه می خواهم. و هوش مصنوعی باید استنباط کند که چه چیزی ممکن است به من علاقه مند باشد. بنابراین، فکر می‌کنم ایده‌های خوبی ارائه می‌شود. بنابراین یک هیستوگرام از تعداد نویسندگان در هر مقاله، سری‌های زمانی مقالات در سال، ابر کلمات عنوان مقاله. همه اینها، به نظر من، زیبا خواهند بود. جالب است.و چیز عالی این است که واقعاً می‌تواند این کار را انجام دهد. در اینجا می‌رویم، یک منحنی زنگ زیبا. می‌بینید که سه تا از رایج‌ترین آنهاست. سپس این طرح زیبا از مقالات را در سال می‌سازد. با این حال، در سال 2023 چیزی دیوانه کننده در حال رخ دادن است. به نظر می رسد ما روی یک نمایی بودیم و از صخره افتاد. چه اتفاقی می تواند در آنجا بیفتد؟ به هر حال، همه اینها کد پایتون است، می توانید بررسی کنید. و سپس ابر کلمه را خواهیم دید. بنابراین شما می توانید تمام این چیزهای شگفت انگیزی را که در این عناوین ظاهر می شود مشاهده کنید. اما من از این موضوع 2023 بسیار ناراضی هستم. این باعث می شود امسال واقعاً بد به نظر برسد. البته مشکل اینجاست که سال تمام نشده است. بنابراین من می‌خواهم دستگاه را به عقب برگردانم. [وایتتت که منصفانه نیست!!! 2023 تمام نشده است چند درصد از مقالات در سال 2022 حتی تا 13 آوریل پست شدند؟] بنابراین من معتقدم که 13 آوریل تاریخ پایانی بود . آیا می توانید از آن برای ایجاد یک طرح ریزی منصفانه استفاده کنید؟ بنابراین خواهیم دید، این یک نوع جاه طلبی است. (خنده حضار) پس می دانید، دوباره، احساس می کنم چیزهای بیشتری می خواستم از دستگاه اینجا خارج شوم. من واقعاً می‌خواستم متوجه این موضوع شود، شاید کمی اغراق است که به شکلی جادویی استنباط کند که این همان چیزی است که من می‌خواستم. اما من قصدم را تزریق می‌کنم، می‌دانید، این بخش اضافی از راهنمایی را ارائه می‌کنم. و زیر کاپوت، هوش مصنوعی دوباره در حال نوشتن کد است، بنابراین اگر می‌خواهید کار آن را بررسی کنید، بسیار امکان‌پذیر است. و اکنون، طرح ریزی صحیح را انجام می دهد. (تشویق حضار) اگر متوجه شدید، حتی عنوان را به روز می کند. من این را نخواستم، اما می داند که من چه می خواهم. حالا دوباره به اسلاید برش می‌دهیم. این اسلاید تمثیلی از اینکه من چگونه فکر می‌کنم را نشان می‌دهد . شخصی سگ بسیار بیمار خود را نزد دامپزشک آورد و دامپزشک زنگ زد و گفت: "بیایید صبر کنیم و ببینیم." و سگ اگر گوش می داد امروز اینجا نبود. در همین حین، او آزمایش خون را مانند مدارک کامل پزشکی به GPT-4 ارائه کرد که گفت: "من دامپزشک نیستم، باید با یک متخصص صحبت کنید، این چند فرضیه است." او این اطلاعات را برای دامپزشک دوم آورد که از آن برای نجات جان سگ استفاده کرد. حالا، این سیستم ها، کامل نیستند. شما نمی توانید بیش از حد به آنها اعتماد کنید. اما این داستان، من فکر می کنم، نشان می دهد که انسانی با یک متخصص پزشکی و با ChatGPT به عنوان شریک طوفان فکری، توانسته به نتیجه ای دست یابد که در غیر این صورت اتفاق نمی افتاد. من فکر می کنم این چیزی است که همه ما باید در مورد آن فکر کنیم، در حالی که در نظر می گیریم چگونه این سیستم ها را در دنیای خود ادغام کنیم. و یک چیزی که من عمیقاً معتقدم این است که درست کردن هوش مصنوعی مستلزم مشارکت همه است. و این برای تصمیم‌گیری است که می‌خواهیم چگونه وارد شود، این برای تنظیم قوانین جاده‌ای است، برای اینکه هوش مصنوعی چه خواهد کرد و چه نخواهد کرد. و اگر نکته ای وجود داشته باشد که از این صحبت حذف شود، این است که این فناوری فقط به نظر متفاوت است. با هر چیزی که مردم پیش بینی می کردند متفاوت است. و بنابراین همه ما باید باسواد شویم. و این یکی از دلایلی است که ChatGPT را منتشر کردیم. من معتقدم که با هم می توانیم به ماموریت OpenAI دست یابیم که اطمینان حاصل شود که هوش عمومی مصنوعی به نفع همه بشریت است. متشکرم. (تشویق حضار) (تشویق به پایان می رسد) کریس اندرسون: گرگ. وای. منظورم این است که ... من گمان می کنم که در هر ذهنی در اینجا یک احساس چرخش وجود دارد. مثلاً، من گمان می‌کنم که تعداد بسیار زیادی از مردمی که این را می‌بینند، شما به آن نگاه می‌کنید و فکر می‌کنید، "اوه خدای من، تقریباً در مورد هر چیز در مورد نحوه کارم، باید دوباره فکر کنم." مثلاً، فقط احتمالات جدیدی وجود دارد. درست است؟ چه کسی فکر می کند که باید در نحوه انجام کارها تجدید نظر کند؟ اولین سوال من در واقع این است که چگونه این کار را انجام دادید؟ (خنده) OpenAI چند صد کارمند دارد. Google هزاران کارمند دارد که روی هوش مصنوعی کار می کنند. چرا این شما هستید که این فناوری را ارائه کردید که جهان را شوکه کرد؟ براکمن: منظورم این است که حقیقت این است که همه ما روی شانه های غول ها بنا می کنیم، درست است، جای هیچ سوالی نیست . اما من فکر می‌کنم که در OpenAI، ما از همان روزهای اولیه، انتخاب‌های بسیار عمدی انجام دادیم و اولین مورد، فقط رویارویی با واقعیت بود. و اینکه ما واقعاً به سختی در مورد آن فکر کردیم مانند: برای پیشرفت در اینجا چه چیزی لازم است؟ ما چیزهای زیادی را امتحان کردیم که جواب ندادند، بنابراین شما فقط چیزهایی را می بینید که جواب داده اند. و من فکر می کنم که مهمترین چیز این بوده است که تیم هایی متشکل از افرادی که بسیار متفاوت از یکدیگر هستند به طور هماهنگ با هم کار کنند. CA: آیا می توانیم آب را که به تازگی آورده ایم اینجا داشته باشیم؟ من فکر می کنم ما به آن نیاز خواهیم داشت، این یک موضوع دهان خشک است. اما آیا چیزی فقط در مورد این واقعیت وجود ندارد که شما چیزی را در این مدل‌های زبانی دیدید که به این معنی است که اگر به سرمایه‌گذاری روی آنها ادامه دهید و آنها را رشد دهید، ممکن است چیزی در مقطعی ظاهر شود؟ جی بی: بله. و من فکر می کنم که، یعنی صادقانه بگویم، فکر می کنم داستان آنجا بسیار گویا است، درست است؟ من فکر می‌کنم که یادگیری عمیق و سطح بالا، همانطور که همیشه می‌دانستیم این همان چیزی است که می‌خواهیم باشیم، یک آزمایشگاه یادگیری عمیق بود و دقیقاً چگونه آن را انجام دهیم؟ من فکر می کنم که در روزهای اول، ما نمی دانستیم. ما چیزهای زیادی را امتحان کردیم، و یک نفر در حال کار روی آموزش مدلی برای پیش‌بینی شخصیت بعدی در بررسی‌های آمازون بود، و او به نتیجه‌ای رسید -- این یک فرآیند نحوی است، انتظار دارید، می‌دانید، مدل پیش‌بینی می‌کند کجاست. کاما می رود، جایی که اسم ها و افعال هستند. اما او در واقع یک طبقه‌بندی تحلیل احساسات پیشرفته را از آن استخراج کرد. این مدل می تواند به شما بگوید که یک بررسی مثبت یا منفی بوده است. منظورم این است که امروز ما دقیقاً مثل این هستیم، بیا، هر کسی می تواند این کار را انجام دهد. اما این اولین باری بود که شما این ظهور را مشاهده کردید، این نوع معناشناسی که از این فرآیند نحوی نهفته پدید آمد. و در آنجا می دانستیم، شما باید این چیز را مقیاس کنید، باید ببینید به کجا می رود. CA: بنابراین فکر می‌کنم این به توضیح معمایی کمک می‌کند که همه را که به این موضوع نگاه می‌کنند گیج می‌کند، زیرا این چیزها به عنوان ماشین‌های پیش‌بینی توصیف می‌شوند. و با این حال، آنچه ما از آنها می بینیم احساس می کنیم ... غیرممکن به نظر می رسد که از یک ماشین پیش بینی بیاید. فقط چیزایی که همین الان به ما نشون دادی و ایده کلیدی ظهور این است که وقتی چیزی بیشتر به دست می آورید، ناگهان چیزهای مختلفی ظاهر می شوند. همیشه اتفاق می‌افتد، کلنی‌های مورچه‌ها، مورچه‌های منفرد به اطراف می‌دوند، وقتی تعداد کافی از آنها را جمع کنید، این کلونی مورچه‌ها را به دست می‌آورید که رفتار کاملاً نوظهور و متفاوتی از خود نشان می‌دهند. یا شهری که در آن چند خانه با هم، فقط خانه های با هم هستند. اما با افزایش تعداد خانه‌ها، چیزهایی مانند حومه شهرها و مراکز فرهنگی و راهبندان ظاهر می‌شوند. یک لحظه برایت به من فرصت بده، وقتی دیدی چیزی پاپ می زند که فقط ذهنت را به هم می زند که ندیده ای می آید. GB: بله، خوب، بنابراین می توانید این را در ChatGPT امتحان کنید، اگر اعداد 40 رقمی را اضافه کنید -- CA: 40 رقمی؟ GB: اعداد 40 رقمی، مدل این کار را انجام می دهد، به این معنی که واقعاً یک مدار داخلی برای نحوه انجام آن یاد گرفته است. و نکته واقعا جالب این است که اگر آن را مانند یک عدد 40 رقمی به اضافه یک عدد 35 رقمی اضافه کنید، اغلب اشتباه می کند. و بنابراین می توانید ببینید که واقعاً در حال یادگیری فرآیند است، اما به طور کامل تعمیم نداده است، درست است؟ مثل این است که شما نمی توانید جدول جمع 40 رقمی را به خاطر بسپارید، این اتم ها بیشتر از اتم های موجود در جهان است. بنابراین باید یک چیز کلی یاد می گرفت، اما واقعاً هنوز به طور کامل یاد نگرفته است که، اوه، می توانم این را به اضافه کردن تعداد دلخواه طول های دلخواه تعمیم دهم. CA: بنابراین اتفاقی که در اینجا افتاده این است که شما به آن اجازه داده‌اید بزرگ‌تر شود و به تعداد باورنکردنی تکه‌های متن نگاه کند. و این یادگیری چیزهایی است که شما نمی دانستید که قرار است قادر به یادگیری آنها باشد. GB خوب، بله، و همچنین ظریف تر است. بنابراین یکی از علومی که ما در حال پیشرفت در آن هستیم، پیش‌بینی برخی از این قابلیت‌های نوظهور است. و برای انجام این کار در واقع، یکی از چیزهایی که فکر می کنم در این زمینه بسیار کم استفاده است، نوعی کیفیت مهندسی است. مانند، ما مجبور شدیم کل پشته خود را بازسازی کنیم. وقتی به ساخت موشک فکر می کنید، هر تحملی باید فوق العاده کوچک باشد. در یادگیری ماشینی هم همینطور است. شما باید تک تک تکه های پشته را به درستی مهندسی کنید، و سپس می توانید این پیش بینی ها را انجام دهید. همه این منحنی های پوسته پوسته شدن فوق العاده صاف وجود دارد. آنها چیزی عمیقاً اساسی در مورد هوش به شما می گویند. اگر به پست وبلاگ GPT-4 ما نگاه کنید، می توانید همه این منحنی ها را در آنجا ببینید. و اکنون ما شروع به پیش بینی کرده ایم. بنابراین ما توانستیم، برای مثال، عملکرد مشکلات کدنویسی را پیش بینی کنیم. ما اساساً به مدل هایی نگاه می کنیم که 10000 برابر یا 1000 بار کوچکتر هستند. و بنابراین چیزی در مورد این وجود دارد که در واقع پوسته پوسته شدن صاف است، حتی اگر هنوز روزهای اولیه است. ک.ای.: پس یکی از ترس‌های بزرگ که از این موضوع ناشی می‌شود، اینجاست. اگر برای آنچه در اینجا اتفاق می‌افتد، اساسی است، این که با افزایش مقیاس، چیزهایی ظاهر می‌شوند که می‌توانید در سطحی از اطمینان پیش‌بینی کنید، اما می‌تواند شما را غافلگیر کند. چرا فقط خطر بزرگی برای ظهور چیزی واقعاً وحشتناک وجود ندارد؟ GB: خوب، من فکر می کنم همه اینها سوالات درجه ، مقیاس و زمان است. و من فکر می کنم یکی از چیزهایی که مردم از دست می دهند، این است که نوعی ادغام با جهان نیز همین چیز فوق العاده نوظهور، به نوعی، بسیار قدرتمند است. و بنابراین این یکی از دلایلی است که ما فکر می کنیم استقرار تدریجی آن بسیار مهم است . و بنابراین من فکر می‌کنم آنچه در حال حاضر می‌بینیم، اگر به این سخنرانی نگاه کنید، بسیاری از مواردی که من روی آن تمرکز می‌کنم ارائه بازخورد واقعاً با کیفیت است. امروز، وظایفی که ما انجام می دهیم، می توانید آنها را بررسی کنید، درست است؟ خیلی آسان است که به آن مسئله ریاضی نگاه کنی و بگوییم، نه، نه، نه، ماشین، هفت پاسخ صحیح بود. اما حتی خلاصه کردن یک کتاب، مثلاً، نظارت بر آن کار سختی است. مثلاً از کجا می‌دانید که این خلاصه کتاب خوب است؟ شما باید کل کتاب را بخوانید. هیچ کس نمی خواهد این کار را انجام دهد. (خنده) و بنابراین من فکر می کنم که مهم این است که ما قدم به قدم این کار را انجام دهیم. و اینکه ما می گوییم خوب، همانطور که به سمت خلاصه کتاب ها می رویم، باید به درستی بر این کار نظارت کنیم. ما باید با این ماشین‌ها سابقه‌ای ایجاد کنیم که آن‌ها بتوانند واقعاً هدف ما را اجرا کنند. و من فکر می‌کنم که ما باید راه‌های بهتر، کارآمدتر و مطمئن‌تری را برای مقیاس‌بندی این کار تولید کنیم، مانند اینکه ماشین را با شما هماهنگ کنیم. CA: بنابراین ما بعداً در این جلسه خواهیم شنید، منتقدانی وجود دارند که می گویند، می دانید، هیچ درک واقعی در داخل وجود ندارد، سیستم همیشه خواهد بود -- ما هرگز نمی دانیم که خطا ایجاد نمی کند ، اینکه عقل سلیم ندارد و غیره. آیا این باور شماست، گرگ، که هر لحظه درست است، اما گسترش مقیاس و بازخورد انسانی که در مورد آن صحبت کردید اساساً آن را به سفری می برد که در واقع به چیزهایی مانند حقیقت و حکمت و حکمت می رسد. و به همین ترتیب، با درجه بالایی از اطمینان. آیا می توانید از آن مطمئن باشید؟ GB: بله، خوب، من فکر می کنم که OpenAI، یعنی پاسخ کوتاه این است که بله، من معتقدم که ما به اینجا می رویم. و من فکر می کنم که رویکرد OpenAI در اینجا همیشه دقیقاً مانند این بوده است که اجازه دهید واقعیت به چهره شما ضربه بزند، درست است؟ مثل این است که این میدان میدان وعده های شکسته شده است، از میان همه این کارشناسان که می گویند X قرار است اتفاق بیفتد، Y نحوه کار آن است. مردم 70 سال است که می گویند شبکه های عصبی کار نمی کنند. آنها هنوز درست نشده اند. ممکن است حق با آنها باشد، شاید 70 سال به اضافه یک یا چیزی شبیه به آن چیزی باشد که شما نیاز دارید. اما من فکر می‌کنم که رویکرد ما همیشه این بوده است، شما باید به محدودیت‌های این فناوری فشار بیاورید تا واقعاً آن را در عمل ببینید، زیرا این به شما می‌گوید، اوه، در اینجا چگونگی حرکت به یک پارادایم جدید است. و ما فقط میوه را در اینجا تمام نکرده ایم. CA: منظورم این است که این یک موضع کاملا بحث برانگیز است که شما اتخاذ کرده اید، که راه درست برای انجام این کار این است که آن را در معرض دید عموم قرار دهید و سپس از همه اینها استفاده کنید، می دانید، به جای اینکه تیم شما فقط بازخورد بدهد، دنیا اکنون بازخورد می دهد. اما ... اگر، می دانید، چیزهای بدی قرار است ظهور کنند، آن بیرون وجود دارد. بنابراین، می دانید، داستان اصلی که من در OpenAI شنیدم، زمانی که شما به عنوان یک سازمان غیرانتفاعی تأسیس شدید، خوب، شما در آنجا بودید تا شرکت های بزرگی را بررسی کنید که کارهای ناشناخته و احتمالاً شیطانی خود را با هوش مصنوعی انجام می دهند. و شما می‌خواستید مدل‌هایی بسازید که به نوعی آنها را مسئول می‌دانستند و در صورت نیاز می‌توانستند سرعت این میدان را کاهش دهند. یا حداقل این چیزی است که من شنیدم. و با این حال، آنچه اتفاق افتاده است، مسلماً برعکس است. انتشار شما از GPT، به خصوص ChatGPT، چنان موجی از شوک را در دنیای فناوری ایجاد کرد که اکنون گوگل و متا و غیره همگی در تلاش برای رسیدن به آن هستند. و برخی از انتقادات آنها این بوده است که شما ما را مجبور می کنید بدون گاردریل مناسب این موضوع را اینجا مطرح کنیم وگرنه می میریم. می دانی، چگونه می توانی به این نتیجه برسی که کاری که انجام داده ای در اینجا مسئول است و بی پروا نیست. جی بی: بله، ما همیشه به این سوالات فکر می کنیم. به طور جدی همیشه. و من فکر نمی کنم که ما همیشه آن را درست انجام دهیم. اما من فکر می‌کنم یک چیز فوق‌العاده مهم بوده است، از همان ابتدا، زمانی که ما به این فکر می‌کردیم که چگونه هوش عمومی مصنوعی بسازیم، در واقع به نفع تمام بشریت باشد، مثلاً چگونه قرار است این کار را انجام دهید، درست است؟ و آن طرح پیش‌فرض بودن، خوب، شما مخفیانه می‌سازید، این چیز فوق‌العاده قدرتمند را دریافت می‌کنید، و سپس ایمنی آن را درمی‌یابید و سپس «برو» را فشار می‌دهید، و امیدوارید که آن را درست انجام داده باشید. من نمی دانم چگونه آن نقشه را اجرا کنم. شاید شخص دیگری انجام دهد. اما برای من، این همیشه وحشتناک بود، احساس درستی نداشت. و بنابراین من فکر می کنم که این رویکرد جایگزین تنها راه دیگری است که می بینم، و آن این است که شما اجازه می دهید واقعیت به چهره شما ضربه بزند. و من فکر می کنم شما به مردم زمان می دهید تا نظر بدهند. قبل از اینکه این ماشین‌ها بی‌نقص باشند، قبل از اینکه فوق‌العاده قدرتمند باشند، واقعاً این توانایی را دارید که آنها را در عمل ببینید. و ما آن را از GPT-3 دیده‌ایم، درست است؟ GPT-3، ما واقعاً می ترسیدیم که اولین کاری که مردم قرار است با آن انجام دهند تولید اطلاعات نادرست است، سعی کنید به انتخابات اشاره کنید. در عوض، اولین چیز ایجاد اسپم ویاگرا بود. (خنده) CA: بنابراین هرزنامه ویاگرا بد است، اما چیزهایی وجود دارد که بسیار بدتر هستند. در اینجا یک آزمایش فکری برای شما وجود دارد. فرض کنید در اتاقی نشسته اید، جعبه ای روی میز است. شما معتقدید که در آن جعبه چیزی است که، به احتمال بسیار زیاد چیزی کاملاً باشکوه است که هدایای زیبایی به خانواده شما و به همه بدهد. اما در واقع یک درصد هم در چاپ کوچک وجود دارد که می گوید: «پاندورا». و این احتمال وجود دارد که این واقعاً شرارت های غیرقابل تصوری را در جهان ایجاد کند. اون جعبه رو باز میکنی؟ جی بی: خب، قطعاً نه. من فکر می کنم شما این کار را انجام نمی دهید. و صادقانه بگویم، داستانی را به شما می گویم که قبلاً نگفته بودم، و آن این است که مدت کوتاهی پس از شروع OpenAI، به یاد دارم که برای یک کنفرانس هوش مصنوعی در پورتوریکو بودم. من در اتاق هتل نشسته‌ام و فقط به این آب فوق‌العاده نگاه می‌کنم، همه این آدم‌ها اوقات خوبی را سپری می‌کنند. و برای لحظه‌ای به آن فکر می‌کنید، اگر بتوانید اساساً جعبه پاندورا را انتخاب کنید که پنج سال دور باشد یا 500 سال، کدام را انتخاب می‌کنید، درست است؟ از یک طرف شما اینطور هستید، خوب، شاید برای شخص شما، بهتر است پنج سال دیگر باشد. اما اگر 500 سال دورتر باشد و مردم زمان بیشتری برای درست کردن آن داشته باشند، کدام را انتخاب می کنید؟ و می دانید، من واقعاً آن را در لحظه احساس کردم. من فکر می کردم، البته شما این 500 سال را انجام می دهید. برادر من در آن زمان در ارتش بود و مانند آن، او زندگی خود را به شیوه ای بسیار واقعی تر از هر یک از ما که چیزهایی را در رایانه تایپ می کردیم و در آن زمان این فناوری را توسعه می دادیم، به خطر انداخت. و بنابراین، بله، من واقعاً با قیمتی که باید به این موضوع نزدیک شوید فروخته شده ام. اما من فکر نمی‌کنم آنطور که واقعاً دروغ می‌گوید، این کاملاً درست بازی کردن نیست. مثلاً، اگر به کل تاریخ محاسبات نگاه کنید، واقعاً منظورم این است که می‌گویم این یک تحول در سطح صنعت یا حتی تقریباً شبیه یک تغییر توسعه انسانی در سراسر فناوری است. و هر چه بیشتر بخواهید، قطعات موجود را کنار هم نگذارید، درست است، ما همچنان کامپیوترهای سریع تری می سازیم، ما هنوز در حال بهبود الگوریتم ها هستیم، همه این چیزها، آنها در حال وقوع هستند. و اگر آنها را کنار هم قرار ندهید، یک overhang می کنید، به این معنی که اگر کسی این کار را انجام دهد، یا لحظه ای که یک نفر موفق به اتصال به مدار شود، ناگهان شما این چیز بسیار قدرتمند را خواهید داشت، هیچ کس وقت ندارد تنظیم کنید، چه کسی می داند چه نوع اقدامات احتیاطی ایمنی را دریافت می کنید. و بنابراین فکر می‌کنم یک چیزی که من حذف می‌کنم این است که حتی شما به توسعه انواع دیگر فناوری‌ها فکر کنید، به سلاح‌های هسته‌ای فکر کنید، مردم در مورد صفر به یک بودن صحبت می‌کنند، نوعی تغییر در کاری که انسان‌ها می‌توانند انجام دهند. اما من در واقع فکر می کنم که اگر به قابلیت نگاه کنید، در طول زمان کاملاً روان بوده است. و بنابراین، من فکر می کنم، تاریخچه هر فناوری که ما توسعه داده ایم، بوده است، شما باید آن را به صورت تدریجی انجام دهید و باید بفهمید که چگونه آن را برای هر لحظه که آن را افزایش می دهید، مدیریت کنید. ک.ای.: پس چیزی که من می‌شنوم این است که شما... الگویی که می‌خواهید داشته باشیم این است که ما این کودک خارق‌العاده را به دنیا آورده‌ایم که ممکن است قدرت‌های فوق‌العاده‌ای داشته باشد که بشریت را به مکانی کاملاً جدید می‌برد. این وظیفه جمعی ماست که حفاظ هایی را برای این کودک فراهم کنیم تا به طور جمعی به او بیاموزیم عاقل باشد و همه ما را خراب نکند. آیا اساساً این مدل است؟ جی‌بی: فکر می‌کنم این درست است. و من فکر می کنم مهم است که بگوییم این ممکن است تغییر کند، درست است؟ ما باید هر قدمی را که با آن روبرو می شویم برداریم. و من فکر می‌کنم امروز بسیار مهم است که همه ما در این فناوری سواد داشته باشیم، نحوه ارائه بازخورد را بیابیم، تصمیم بگیریم که از آن چه می‌خواهیم. و امید من این است که این بهترین مسیر ادامه پیدا کند، اما این خیلی خوب است که صادقانه این بحث را انجام می دهیم زیرا اگر آن بیرون نبود، در غیر این صورت این کار را نمی کردیم. کالیفرنیا: گرگ براکمن، بسیار متشکرم که به TED آمدید و ذهن ما را به باد دادید.



چت جی پی تیchatgptopenaiهوش مصنوعیted
شاید از این پست‌ها خوشتان بیاید