ما OpenAI را هفت سال پیش شروع کردیم زیرا احساس میکردیم اتفاق جالبی در هوش مصنوعی در حال رخ دادن است و میخواستیم به هدایت آن در جهت مثبت کمک کنیم. انصافاً واقعاً شگفتانگیز است که میبینید از آن زمان تاکنون کل این رشته چقدر پیشرفت کرده است. و شنیدن سخنان افرادی مانند ریموند که از فناوری ما در حال ساختن ما استفاده می کنند و دیگران برای بسیاری از چیزهای شگفت انگیز واقعاً خوشحال کننده است. ما از افرادی می شنویم که هیجان زده هستند، از افرادی که نگران هستند می شنویم، از افرادی می شنویم که این دو احساس را به یکباره احساس می کنند. و صادقانه بگویم، ما این احساس را داریم. مهمتر از همه، به نظر می رسد که ما در حال ورود به یک دوره تاریخی هستیم که در آن به عنوان یک جهان، می خواهیم فناوری را تعریف کنیم که برای جامعه ما در آینده بسیار مهم خواهد بود. و من معتقدم که ما می توانیم این را برای همیشه مدیریت کنیم. بنابراین امروز، من میخواهم وضعیت فعلی آن فناوری و برخی از اصول طراحی اساسی را که برای ما عزیز است به شما نشان دهم. بنابراین اولین چیزی که می خواهم به شما نشان دهم این است که ساختن ابزاری برای هوش مصنوعی به جای ساختن آن برای انسان چگونه است. بنابراین ما یک مدل جدید DALL-E داریم که تصاویر را تولید می کند و آن را به عنوان یک برنامه برای ChatGPT برای استفاده از طرف شما در معرض دید قرار می دهیم. و میتوانید کارهایی مانند بپرسید، میدانید، یک غذای خوب بعد از TED پیشنهاد کنید و از آن تصویر بکشید. (خنده حضار) حالا شما همه ایدهها و خلاقیتها را پشت سر میگذارید و مراقب جزئیاتی هستید که از ChatGPT خارج میشوید. و در اینجا می رویم، این فقط ایده غذا نیست، بلکه یک گسترش بسیار بسیار دقیق است. پس بیایید ببینیم چه چیزی به دست خواهیم آورد. اما ChatGPT در این مورد فقط تصاویر تولید نمی کند -- متأسفیم، متن تولید نمی کند، بلکه یک تصویر نیز تولید می کند. و این چیزی است که واقعاً قدرت کارهایی را که می تواند از طرف شما انجام دهد در راستای اجرای قصد شما گسترش می دهد. و من اشاره می کنم، این همه یک نسخه نمایشی زنده است. همه اینها در حالی که ما صحبت می کنیم توسط هوش مصنوعی ایجاد می شود. بنابراین من در واقع حتی نمی دانم چه چیزی قرار است ببینیم. این فوق العاده به نظر می رسد. (تشویق حضار) من فقط به آن نگاه می کنم گرسنه می شوم. اکنون ChatGPT را با ابزارهای دیگر نیز گسترش داده ایم، به عنوان مثال، حافظه. می توانید بگویید "این را برای بعد ذخیره کنید." و نکته جالب در مورد این ابزارها این است که آنها بسیار قابل بازرسی هستند. بنابراین شما این پاپ کوچک را در اینجا دریافت می کنید که می گوید "از برنامه DALL-E استفاده کنید." و به هر حال، این برای شما، همه کاربران ChatGPT، در ماه های آینده خواهد آمد. و می توانید به زیر کاپوت نگاه کنید و ببینید که در واقع کاری که انجام داد نوشتن یک درخواست بود درست مانند یک انسان. و بنابراین شما به نوعی این توانایی را دارید که نحوه استفاده دستگاه از این ابزارها را بررسی کنید، که به ما امکان میدهد به آنها بازخورد ارائه کنیم. اکنون برای بعد ذخیره شده است، و اجازه دهید به شما نشان دهم که استفاده از آن اطلاعات و ادغام با سایر برنامه ها چگونه است. میتوانید بگویید: «حالا یک لیست خرید برای چیز خوشمزهای که قبلاً پیشنهاد دادم تهیه کنید.» و آن را برای هوش مصنوعی کمی دشوار کنید. و آن را برای همه بینندگان TED در آنجا توییت کنید." (خنده) بنابراین اگر این غذای فوقالعاده و فوقالعاده را درست میکنید، قطعاً میخواهم بدانم طعم آن چگونه است. اما میبینید که ChatGPT همه این ابزارهای مختلف را انتخاب میکند بدون اینکه مجبور باشم به صراحت بگویم در هر شرایطی از کدام یک استفاده کنم. و این، به نظر من، شیوه جدیدی از تفکر در مورد رابط کاربری را نشان می دهد. به عنوان مثال، ما خیلی عادت کردهایم به این فکر کنیم، خوب، ما این برنامهها را داریم، بین آنها کلیک میکنیم، بین آنها کپی/پیست میکنیم، و معمولاً این یک تجربه عالی در داخل یک برنامه است تا زمانی که منوها را بشناسید و همه چیز را بدانید. گزینه ها بله، من از شما می خواهم. بله لطفا. همیشه مودب بودن خوبه (خنده) و با داشتن این رابط زبانی یکپارچه در بالای ابزارها، هوش مصنوعی قادر است تمام آن جزئیات را از شما بگیرد. بنابراین لازم نیست شما کسی باشید که تک تک تکه های کوچکی از آنچه قرار است اتفاق بیفتد را بیان کنید. و همانطور که گفتم، این یک نسخه آزمایشی زنده است، بنابراین گاهی اوقات اتفاقات غیر منتظره ای برای ما رخ می دهد. اما بیایید نگاهی به لیست خرید Instacart بیاندازیم تا زمانی که در آن هستیم. و می توانید ببینید که ما لیستی از مواد تشکیل دهنده را به Instacart فرستادیم. در اینجا همه چیز شما نیاز دارید. و چیزی که واقعا جالب است این است که رابط کاربری سنتی هنوز هم بسیار ارزشمند است، درست است؟ اگر به این نگاه کنید، هنوز هم می توانید روی آن کلیک کنید و مقدار واقعی را تغییر دهید. و این چیزی است که من فکر می کنم نشان می دهد که آنها از بین نمی روند، رابط های کاربری سنتی. فقط ما یک راه جدید و تقویت شده برای ساخت آنها داریم. و اکنون ما یک توییت داریم که برای بررسی ما آماده شده است، که همچنین یک چیز بسیار مهم است. ما میتوانیم روی «اجرا» کلیک کنیم، و در اینجا هستیم، ما مدیر هستیم، میتوانیم بازرسی کنیم، اگر بخواهیم میتوانیم کار هوش مصنوعی را تغییر دهیم. و بنابراین پس از این گفتگو، شما می توانید خودتان به آن دسترسی داشته باشید. و ما به آنجا می رویم. سرد. از همتون سپاسگذارم. (تشویق حضار) بنابراین ما به اسلایدها برمی گردیم. در حال حاضر، نکته مهم در مورد نحوه ساخت این ابزار، فقط ساخت این ابزارها نیست. این در مورد آموزش هوش مصنوعی نحوه استفاده از آنها است. مثلاً وقتی این سؤالات سطح بالا را میپرسیم، میخواهیم چه کار کند؟ و برای این کار از یک ایده قدیمی استفاده می کنیم. اگر به مقاله آلن تورینگ در سال 1950 در مورد آزمون تورینگ برگردید، او می گوید، شما هرگز پاسخی برای این موضوع برنامه ریزی نخواهید کرد. در عوض، می توانید آن را یاد بگیرید. شما می توانید ماشینی بسازید، مانند یک کودک انسان، و سپس آن را از طریق بازخورد آموزش دهید. یک معلم انسانی داشته باشید که در حین امتحان کردن چیزها و انجام کارهای خوب یا بد، پاداش ها و تنبیه ها را فراهم کند. و این دقیقاً نحوه آموزش ChatGPT است. این یک فرآیند دو مرحله ای است. اول، ما چیزی را تولید می کنیم که تورینگ آن را ماشین کودک می نامد، از طریق یک فرآیند یادگیری بدون نظارت. ما فقط کل دنیا، کل اینترنت را به آن نشان میدهیم و میگوییم: «پیشبینی کنید در متنی که قبلاً هرگز ندیدهاید، چه اتفاقی میافتد». و این فرآیند آن را با انواع مهارت های شگفت انگیز آغشته می کند. به عنوان مثال، اگر یک مسئله ریاضی به شما نشان داده شود، تنها راه برای کامل کردن آن مسئله ریاضی، گفتن آنچه بعداً می آید، آن نه سبز، این است که واقعاً مسئله ریاضی را حل کنید. اما ما در واقع باید مرحله دوم را نیز انجام دهیم، که این است که به هوش مصنوعی آموزش دهیم که با این مهارت ها چه کند. و برای این، ما بازخورد ارائه می دهیم. ما از هوش مصنوعی میخواهیم چندین چیز را امتحان کند، چندین پیشنهاد به ما بدهد، و سپس یک انسان به آنها امتیاز میدهد و میگوید: «این یکی بهتر از آن یکی است». و این نه تنها چیز خاصی را که هوش مصنوعی گفته است، بلکه بسیار مهمتر، کل فرآیندی را که هوش مصنوعی برای تولید آن پاسخ استفاده کرده است، تقویت می کند. و این به آن اجازه تعمیم می دهد. این به آن اجازه می دهد تا آموزش دهد، قصد شما را به نوعی استنباط کند و آن را در سناریوهایی که قبلاً ندیده است، که بازخورد دریافت نکرده است، اعمال کند. اکنون، گاهی اوقات چیزهایی که ما باید به هوش مصنوعی آموزش دهیم، آن چیزی نیست که شما انتظار دارید. به عنوان مثال، زمانی که ما برای اولین بار GPT-4 را به آکادمی خان نشان دادیم، آنها گفتند: "وای، این خیلی عالی است، ما می توانیم چیزهای شگفت انگیزی به دانش آموزان آموزش دهیم. فقط یک مشکل، این است که دانش آموزان را دوباره چک نمی کند. اگر ریاضی بدی در آن وجود داشته باشد، با خوشحالی وانمود می کند که یک به علاوه یک برابر با سه است و با آن می دود." بنابراین مجبور شدیم برخی از داده های بازخورد را جمع آوری کنیم. خود سال خان بسیار مهربان بود و 20 ساعت از وقت خود را برای ارائه بازخورد به دستگاه در کنار تیم ما ارائه داد. و در طول چند ماه ما توانستیم به هوش مصنوعی آموزش دهیم که "هی، شما واقعاً باید در این نوع سناریوی خاص، انسان ها را پس بزنید." و ما در واقع پیشرفت های زیادی را در مدل ها از این طریق انجام داده ایم. و هنگامی که در ChatGPT آن انگشت شست را پایین می آورید، در واقع به نوعی مانند ارسال یک سیگنال خفاش به تیم ما است که می گوید: "اینجا نقطه ضعفی است که باید بازخورد جمع آوری کنید." و بنابراین وقتی این کار را انجام میدهید، این یکی از راههایی است که ما واقعاً به کاربران خود گوش میدهیم و مطمئن میشویم که چیزی میسازیم که برای همه مفیدتر باشد. اکنون، ارائه بازخورد با کیفیت بالا کار سختی است. اگر به این فکر میکنید که از یک بچه بخواهید اتاقش را تمیز کند، اگر تمام کاری که انجام میدهید بررسی زمین است، نمیدانید که آیا فقط به او یاد میدهید که تمام اسباببازیها را در کمد قرار دهد یا خیر. به هر حال، این یک تصویر خوب از DALL-E است . و همین نوع استدلال در مورد هوش مصنوعی نیز صدق می کند. همانطور که به سمت وظایف سخت تر حرکت می کنیم، باید توانایی خود را برای ارائه بازخورد با کیفیت بالا افزایش دهیم. اما برای این کار، خود هوش مصنوعی خوشحال است که به شما کمک می کند. خوشحالیم که به ما کمک می کند تا بازخورد بهتری ارائه دهیم و توانایی خود را برای نظارت بر دستگاه با گذشت زمان افزایش دهیم. و اجازه دهید منظورم را به شما نشان دهم. به عنوان مثال، میتوانید از GPT-4 سؤالی مانند این بپرسید، اینکه چقدر زمان بین این دو وبلاگ اساسی برای یادگیری بدون نظارت و یادگیری از بازخورد انسانی سپری شده است. و مدل میگه دو ماه گذشت. اما آیا این حقیقت دارد؟ مثلاً، این مدلها 100 درصد قابل اعتماد نیستند، اگرچه هر بار که بازخورد ارائه میکنیم بهتر میشوند. اما ما در واقع می توانیم از هوش مصنوعی برای بررسی واقعیت استفاده کنیم. و در واقع می تواند کار خود را بررسی کند. می توانید بگویید، این را برای من بررسی کنید. اکنون، در این مورد، من در واقع ابزار جدیدی به هوش مصنوعی داده ام. این یک ابزار مرور است که در آن مدل می تواند پرس و جوهای جستجو را صادر کند و در صفحات وب کلیک کند. و در واقع کل زنجیره فکری خود را همانطور که انجام می دهد، می نویسد. می گوید، من فقط می خواهم این را جستجو کنم و در واقع جستجو را انجام می دهد. سپس تاریخ انتشار و نتایج جستجو را پیدا می کند. سپس درخواست جستجوی دیگری را صادر می کند. روی پست وبلاگ کلیک می کند. و همه اینها را می توانید انجام دهید، اما این یک کار بسیار خسته کننده است. این چیزی نیست که انسان واقعاً بخواهد انجام دهد. نشستن در صندلی راننده بسیار لذت بخش تر است ، قرار گرفتن در موقعیت مدیر که در صورت تمایل می توانید کار را سه بار بررسی کنید. و استنادها را بیرون بیاورید تا بتوانید به راحتی بروید و هر قطعه ای از کل این زنجیره استدلال را تأیید کنید. و در واقع معلوم شد که دو ماه اشتباه بوده است. دو ماه و یک هفته درست بود. (تشویق حضار) و ما به یک طرف کاهش می دهیم. و چیزی که در کل این فرآیند برای من بسیار جالب است این است که این همکاری چند مرحله ای بین یک انسان و یک هوش مصنوعی است. از آنجا که یک انسان، با استفاده از این ابزار حقیقتسنجی این کار را انجام میدهد تا دادههایی را برای هوش مصنوعی دیگری تولید کند تا برای انسان مفیدتر شود. و من فکر میکنم این واقعاً شکل چیزی را نشان میدهد که ما باید انتظار داشته باشیم که در آینده بسیار رایجتر شود، جایی که ما انسانها و ماشینهایی را داریم که با دقت و ظرافتی طراحی شدهاند که چگونه در یک مشکل قرار میگیرند و چگونه میخواهیم آن را حل کنیم. مسئله. ما اطمینان میدهیم که انسانها مدیریت، نظارت، بازخورد و ماشینها را به گونهای کار میکنند که قابل بازرسی و قابل اعتماد باشد. و با هم می توانیم ماشین های قابل اعتمادتری را ایجاد کنیم. و من فکر می کنم که با گذشت زمان، اگر این روند را درست پیش ببریم، می توانیم مشکلات غیرممکن را حل کنیم. و برای اینکه بفهمید چقدر غیرممکن صحبت می کنم، فکر می کنم می توانیم تقریباً در هر جنبه ای از نحوه تعامل خود با رایانه ها تجدید نظر کنیم. به عنوان مثال، به صفحات گسترده فکر کنید. آنها از 40 سال پیش با VisiCalc به شکلی وجود داشته اند. من فکر نمی کنم آنها واقعاً در این مدت تغییر زیادی کرده باشند. و در اینجا یک صفحه گسترده خاص از تمام مقالات AI در arXiv در 30 سال گذشته است. حدود 167000 نفر از آنها وجود دارد. و شما می توانید داده ها را در اینجا ببینید. اما اجازه دهید به شما دیدگاه ChatGPT را در مورد نحوه تجزیه و تحلیل مجموعه داده ای مانند این نشان دهم. بنابراین میتوانیم به ChatGPT به ابزار دیگری دسترسی داشته باشیم، این ابزار یک مفسر پایتون است، بنابراین میتواند کد را اجرا کند، درست مانند یک دانشمند داده. و بنابراین شما می توانید به معنای واقعی کلمه یک فایل آپلود کنید و در مورد آن سوال بپرسید. و بسیار مفید است، می دانید، نام فایل را می داند و مانند "اوه، این CSV است"، فایل مقدار جدا شده با کاما، "من آن را برای شما تجزیه می کنم." تنها اطلاعاتی که در اینجا وجود دارد، نام فایل، نام ستونهایی است که دیدید و سپس دادههای واقعی. و از آن می توان استنباط کرد که این ستون ها در واقع چه معنایی دارند. مانند، آن اطلاعات معنایی در آنجا نبود. باید دانش جهانی خود را به گونهای جمع کند که بداند: «اوه بله، arXiv سایتی است که افراد مقالاتی را ارسال میکنند و بنابراین این چیزها هستند و اینها مقادیر صحیح هستند و بنابراین تعدادی از نویسندگان در آن هستند. کاغذ، مانند همه اینها، این کاری است که انسان باید انجام دهد، و هوش مصنوعی خوشحال است که با آن کمک می کند. حالا من حتی نمی دانم چه می خواهم بپرسم. بنابراین خوشبختانه، می توانید از دستگاه بپرسید: "می توانم شما چند نمودار اکتشافی می سازید؟" و یک بار دیگر، این یک دستورالعمل فوق العاده سطح بالا است که در پشت آن اهداف زیادی وجود دارد. اما من حتی نمی دانم چه می خواهم. و هوش مصنوعی باید استنباط کند که چه چیزی ممکن است به من علاقه مند باشد. بنابراین، فکر میکنم ایدههای خوبی ارائه میشود. بنابراین یک هیستوگرام از تعداد نویسندگان در هر مقاله، سریهای زمانی مقالات در سال، ابر کلمات عنوان مقاله. همه اینها، به نظر من، زیبا خواهند بود. جالب است.و چیز عالی این است که واقعاً میتواند این کار را انجام دهد. در اینجا میرویم، یک منحنی زنگ زیبا. میبینید که سه تا از رایجترین آنهاست. سپس این طرح زیبا از مقالات را در سال میسازد. با این حال، در سال 2023 چیزی دیوانه کننده در حال رخ دادن است. به نظر می رسد ما روی یک نمایی بودیم و از صخره افتاد. چه اتفاقی می تواند در آنجا بیفتد؟ به هر حال، همه اینها کد پایتون است، می توانید بررسی کنید. و سپس ابر کلمه را خواهیم دید. بنابراین شما می توانید تمام این چیزهای شگفت انگیزی را که در این عناوین ظاهر می شود مشاهده کنید. اما من از این موضوع 2023 بسیار ناراضی هستم. این باعث می شود امسال واقعاً بد به نظر برسد. البته مشکل اینجاست که سال تمام نشده است. بنابراین من میخواهم دستگاه را به عقب برگردانم. [وایتتت که منصفانه نیست!!! 2023 تمام نشده است چند درصد از مقالات در سال 2022 حتی تا 13 آوریل پست شدند؟] بنابراین من معتقدم که 13 آوریل تاریخ پایانی بود . آیا می توانید از آن برای ایجاد یک طرح ریزی منصفانه استفاده کنید؟ بنابراین خواهیم دید، این یک نوع جاه طلبی است. (خنده حضار) پس می دانید، دوباره، احساس می کنم چیزهای بیشتری می خواستم از دستگاه اینجا خارج شوم. من واقعاً میخواستم متوجه این موضوع شود، شاید کمی اغراق است که به شکلی جادویی استنباط کند که این همان چیزی است که من میخواستم. اما من قصدم را تزریق میکنم، میدانید، این بخش اضافی از راهنمایی را ارائه میکنم. و زیر کاپوت، هوش مصنوعی دوباره در حال نوشتن کد است، بنابراین اگر میخواهید کار آن را بررسی کنید، بسیار امکانپذیر است. و اکنون، طرح ریزی صحیح را انجام می دهد. (تشویق حضار) اگر متوجه شدید، حتی عنوان را به روز می کند. من این را نخواستم، اما می داند که من چه می خواهم. حالا دوباره به اسلاید برش میدهیم. این اسلاید تمثیلی از اینکه من چگونه فکر میکنم را نشان میدهد . شخصی سگ بسیار بیمار خود را نزد دامپزشک آورد و دامپزشک زنگ زد و گفت: "بیایید صبر کنیم و ببینیم." و سگ اگر گوش می داد امروز اینجا نبود. در همین حین، او آزمایش خون را مانند مدارک کامل پزشکی به GPT-4 ارائه کرد که گفت: "من دامپزشک نیستم، باید با یک متخصص صحبت کنید، این چند فرضیه است." او این اطلاعات را برای دامپزشک دوم آورد که از آن برای نجات جان سگ استفاده کرد. حالا، این سیستم ها، کامل نیستند. شما نمی توانید بیش از حد به آنها اعتماد کنید. اما این داستان، من فکر می کنم، نشان می دهد که انسانی با یک متخصص پزشکی و با ChatGPT به عنوان شریک طوفان فکری، توانسته به نتیجه ای دست یابد که در غیر این صورت اتفاق نمی افتاد. من فکر می کنم این چیزی است که همه ما باید در مورد آن فکر کنیم، در حالی که در نظر می گیریم چگونه این سیستم ها را در دنیای خود ادغام کنیم. و یک چیزی که من عمیقاً معتقدم این است که درست کردن هوش مصنوعی مستلزم مشارکت همه است. و این برای تصمیمگیری است که میخواهیم چگونه وارد شود، این برای تنظیم قوانین جادهای است، برای اینکه هوش مصنوعی چه خواهد کرد و چه نخواهد کرد. و اگر نکته ای وجود داشته باشد که از این صحبت حذف شود، این است که این فناوری فقط به نظر متفاوت است. با هر چیزی که مردم پیش بینی می کردند متفاوت است. و بنابراین همه ما باید باسواد شویم. و این یکی از دلایلی است که ChatGPT را منتشر کردیم. من معتقدم که با هم می توانیم به ماموریت OpenAI دست یابیم که اطمینان حاصل شود که هوش عمومی مصنوعی به نفع همه بشریت است. متشکرم. (تشویق حضار) (تشویق به پایان می رسد) کریس اندرسون: گرگ. وای. منظورم این است که ... من گمان می کنم که در هر ذهنی در اینجا یک احساس چرخش وجود دارد. مثلاً، من گمان میکنم که تعداد بسیار زیادی از مردمی که این را میبینند، شما به آن نگاه میکنید و فکر میکنید، "اوه خدای من، تقریباً در مورد هر چیز در مورد نحوه کارم، باید دوباره فکر کنم." مثلاً، فقط احتمالات جدیدی وجود دارد. درست است؟ چه کسی فکر می کند که باید در نحوه انجام کارها تجدید نظر کند؟ اولین سوال من در واقع این است که چگونه این کار را انجام دادید؟ (خنده) OpenAI چند صد کارمند دارد. Google هزاران کارمند دارد که روی هوش مصنوعی کار می کنند. چرا این شما هستید که این فناوری را ارائه کردید که جهان را شوکه کرد؟ براکمن: منظورم این است که حقیقت این است که همه ما روی شانه های غول ها بنا می کنیم، درست است، جای هیچ سوالی نیست . اما من فکر میکنم که در OpenAI، ما از همان روزهای اولیه، انتخابهای بسیار عمدی انجام دادیم و اولین مورد، فقط رویارویی با واقعیت بود. و اینکه ما واقعاً به سختی در مورد آن فکر کردیم مانند: برای پیشرفت در اینجا چه چیزی لازم است؟ ما چیزهای زیادی را امتحان کردیم که جواب ندادند، بنابراین شما فقط چیزهایی را می بینید که جواب داده اند. و من فکر می کنم که مهمترین چیز این بوده است که تیم هایی متشکل از افرادی که بسیار متفاوت از یکدیگر هستند به طور هماهنگ با هم کار کنند. CA: آیا می توانیم آب را که به تازگی آورده ایم اینجا داشته باشیم؟ من فکر می کنم ما به آن نیاز خواهیم داشت، این یک موضوع دهان خشک است. اما آیا چیزی فقط در مورد این واقعیت وجود ندارد که شما چیزی را در این مدلهای زبانی دیدید که به این معنی است که اگر به سرمایهگذاری روی آنها ادامه دهید و آنها را رشد دهید، ممکن است چیزی در مقطعی ظاهر شود؟ جی بی: بله. و من فکر می کنم که، یعنی صادقانه بگویم، فکر می کنم داستان آنجا بسیار گویا است، درست است؟ من فکر میکنم که یادگیری عمیق و سطح بالا، همانطور که همیشه میدانستیم این همان چیزی است که میخواهیم باشیم، یک آزمایشگاه یادگیری عمیق بود و دقیقاً چگونه آن را انجام دهیم؟ من فکر می کنم که در روزهای اول، ما نمی دانستیم. ما چیزهای زیادی را امتحان کردیم، و یک نفر در حال کار روی آموزش مدلی برای پیشبینی شخصیت بعدی در بررسیهای آمازون بود، و او به نتیجهای رسید -- این یک فرآیند نحوی است، انتظار دارید، میدانید، مدل پیشبینی میکند کجاست. کاما می رود، جایی که اسم ها و افعال هستند. اما او در واقع یک طبقهبندی تحلیل احساسات پیشرفته را از آن استخراج کرد. این مدل می تواند به شما بگوید که یک بررسی مثبت یا منفی بوده است. منظورم این است که امروز ما دقیقاً مثل این هستیم، بیا، هر کسی می تواند این کار را انجام دهد. اما این اولین باری بود که شما این ظهور را مشاهده کردید، این نوع معناشناسی که از این فرآیند نحوی نهفته پدید آمد. و در آنجا می دانستیم، شما باید این چیز را مقیاس کنید، باید ببینید به کجا می رود. CA: بنابراین فکر میکنم این به توضیح معمایی کمک میکند که همه را که به این موضوع نگاه میکنند گیج میکند، زیرا این چیزها به عنوان ماشینهای پیشبینی توصیف میشوند. و با این حال، آنچه ما از آنها می بینیم احساس می کنیم ... غیرممکن به نظر می رسد که از یک ماشین پیش بینی بیاید. فقط چیزایی که همین الان به ما نشون دادی و ایده کلیدی ظهور این است که وقتی چیزی بیشتر به دست می آورید، ناگهان چیزهای مختلفی ظاهر می شوند. همیشه اتفاق میافتد، کلنیهای مورچهها، مورچههای منفرد به اطراف میدوند، وقتی تعداد کافی از آنها را جمع کنید، این کلونی مورچهها را به دست میآورید که رفتار کاملاً نوظهور و متفاوتی از خود نشان میدهند. یا شهری که در آن چند خانه با هم، فقط خانه های با هم هستند. اما با افزایش تعداد خانهها، چیزهایی مانند حومه شهرها و مراکز فرهنگی و راهبندان ظاهر میشوند. یک لحظه برایت به من فرصت بده، وقتی دیدی چیزی پاپ می زند که فقط ذهنت را به هم می زند که ندیده ای می آید. GB: بله، خوب، بنابراین می توانید این را در ChatGPT امتحان کنید، اگر اعداد 40 رقمی را اضافه کنید -- CA: 40 رقمی؟ GB: اعداد 40 رقمی، مدل این کار را انجام می دهد، به این معنی که واقعاً یک مدار داخلی برای نحوه انجام آن یاد گرفته است. و نکته واقعا جالب این است که اگر آن را مانند یک عدد 40 رقمی به اضافه یک عدد 35 رقمی اضافه کنید، اغلب اشتباه می کند. و بنابراین می توانید ببینید که واقعاً در حال یادگیری فرآیند است، اما به طور کامل تعمیم نداده است، درست است؟ مثل این است که شما نمی توانید جدول جمع 40 رقمی را به خاطر بسپارید، این اتم ها بیشتر از اتم های موجود در جهان است. بنابراین باید یک چیز کلی یاد می گرفت، اما واقعاً هنوز به طور کامل یاد نگرفته است که، اوه، می توانم این را به اضافه کردن تعداد دلخواه طول های دلخواه تعمیم دهم. CA: بنابراین اتفاقی که در اینجا افتاده این است که شما به آن اجازه دادهاید بزرگتر شود و به تعداد باورنکردنی تکههای متن نگاه کند. و این یادگیری چیزهایی است که شما نمی دانستید که قرار است قادر به یادگیری آنها باشد. GB خوب، بله، و همچنین ظریف تر است. بنابراین یکی از علومی که ما در حال پیشرفت در آن هستیم، پیشبینی برخی از این قابلیتهای نوظهور است. و برای انجام این کار در واقع، یکی از چیزهایی که فکر می کنم در این زمینه بسیار کم استفاده است، نوعی کیفیت مهندسی است. مانند، ما مجبور شدیم کل پشته خود را بازسازی کنیم. وقتی به ساخت موشک فکر می کنید، هر تحملی باید فوق العاده کوچک باشد. در یادگیری ماشینی هم همینطور است. شما باید تک تک تکه های پشته را به درستی مهندسی کنید، و سپس می توانید این پیش بینی ها را انجام دهید. همه این منحنی های پوسته پوسته شدن فوق العاده صاف وجود دارد. آنها چیزی عمیقاً اساسی در مورد هوش به شما می گویند. اگر به پست وبلاگ GPT-4 ما نگاه کنید، می توانید همه این منحنی ها را در آنجا ببینید. و اکنون ما شروع به پیش بینی کرده ایم. بنابراین ما توانستیم، برای مثال، عملکرد مشکلات کدنویسی را پیش بینی کنیم. ما اساساً به مدل هایی نگاه می کنیم که 10000 برابر یا 1000 بار کوچکتر هستند. و بنابراین چیزی در مورد این وجود دارد که در واقع پوسته پوسته شدن صاف است، حتی اگر هنوز روزهای اولیه است. ک.ای.: پس یکی از ترسهای بزرگ که از این موضوع ناشی میشود، اینجاست. اگر برای آنچه در اینجا اتفاق میافتد، اساسی است، این که با افزایش مقیاس، چیزهایی ظاهر میشوند که میتوانید در سطحی از اطمینان پیشبینی کنید، اما میتواند شما را غافلگیر کند. چرا فقط خطر بزرگی برای ظهور چیزی واقعاً وحشتناک وجود ندارد؟ GB: خوب، من فکر می کنم همه اینها سوالات درجه ، مقیاس و زمان است. و من فکر می کنم یکی از چیزهایی که مردم از دست می دهند، این است که نوعی ادغام با جهان نیز همین چیز فوق العاده نوظهور، به نوعی، بسیار قدرتمند است. و بنابراین این یکی از دلایلی است که ما فکر می کنیم استقرار تدریجی آن بسیار مهم است . و بنابراین من فکر میکنم آنچه در حال حاضر میبینیم، اگر به این سخنرانی نگاه کنید، بسیاری از مواردی که من روی آن تمرکز میکنم ارائه بازخورد واقعاً با کیفیت است. امروز، وظایفی که ما انجام می دهیم، می توانید آنها را بررسی کنید، درست است؟ خیلی آسان است که به آن مسئله ریاضی نگاه کنی و بگوییم، نه، نه، نه، ماشین، هفت پاسخ صحیح بود. اما حتی خلاصه کردن یک کتاب، مثلاً، نظارت بر آن کار سختی است. مثلاً از کجا میدانید که این خلاصه کتاب خوب است؟ شما باید کل کتاب را بخوانید. هیچ کس نمی خواهد این کار را انجام دهد. (خنده) و بنابراین من فکر می کنم که مهم این است که ما قدم به قدم این کار را انجام دهیم. و اینکه ما می گوییم خوب، همانطور که به سمت خلاصه کتاب ها می رویم، باید به درستی بر این کار نظارت کنیم. ما باید با این ماشینها سابقهای ایجاد کنیم که آنها بتوانند واقعاً هدف ما را اجرا کنند. و من فکر میکنم که ما باید راههای بهتر، کارآمدتر و مطمئنتری را برای مقیاسبندی این کار تولید کنیم، مانند اینکه ماشین را با شما هماهنگ کنیم. CA: بنابراین ما بعداً در این جلسه خواهیم شنید، منتقدانی وجود دارند که می گویند، می دانید، هیچ درک واقعی در داخل وجود ندارد، سیستم همیشه خواهد بود -- ما هرگز نمی دانیم که خطا ایجاد نمی کند ، اینکه عقل سلیم ندارد و غیره. آیا این باور شماست، گرگ، که هر لحظه درست است، اما گسترش مقیاس و بازخورد انسانی که در مورد آن صحبت کردید اساساً آن را به سفری می برد که در واقع به چیزهایی مانند حقیقت و حکمت و حکمت می رسد. و به همین ترتیب، با درجه بالایی از اطمینان. آیا می توانید از آن مطمئن باشید؟ GB: بله، خوب، من فکر می کنم که OpenAI، یعنی پاسخ کوتاه این است که بله، من معتقدم که ما به اینجا می رویم. و من فکر می کنم که رویکرد OpenAI در اینجا همیشه دقیقاً مانند این بوده است که اجازه دهید واقعیت به چهره شما ضربه بزند، درست است؟ مثل این است که این میدان میدان وعده های شکسته شده است، از میان همه این کارشناسان که می گویند X قرار است اتفاق بیفتد، Y نحوه کار آن است. مردم 70 سال است که می گویند شبکه های عصبی کار نمی کنند. آنها هنوز درست نشده اند. ممکن است حق با آنها باشد، شاید 70 سال به اضافه یک یا چیزی شبیه به آن چیزی باشد که شما نیاز دارید. اما من فکر میکنم که رویکرد ما همیشه این بوده است، شما باید به محدودیتهای این فناوری فشار بیاورید تا واقعاً آن را در عمل ببینید، زیرا این به شما میگوید، اوه، در اینجا چگونگی حرکت به یک پارادایم جدید است. و ما فقط میوه را در اینجا تمام نکرده ایم. CA: منظورم این است که این یک موضع کاملا بحث برانگیز است که شما اتخاذ کرده اید، که راه درست برای انجام این کار این است که آن را در معرض دید عموم قرار دهید و سپس از همه اینها استفاده کنید، می دانید، به جای اینکه تیم شما فقط بازخورد بدهد، دنیا اکنون بازخورد می دهد. اما ... اگر، می دانید، چیزهای بدی قرار است ظهور کنند، آن بیرون وجود دارد. بنابراین، می دانید، داستان اصلی که من در OpenAI شنیدم، زمانی که شما به عنوان یک سازمان غیرانتفاعی تأسیس شدید، خوب، شما در آنجا بودید تا شرکت های بزرگی را بررسی کنید که کارهای ناشناخته و احتمالاً شیطانی خود را با هوش مصنوعی انجام می دهند. و شما میخواستید مدلهایی بسازید که به نوعی آنها را مسئول میدانستند و در صورت نیاز میتوانستند سرعت این میدان را کاهش دهند. یا حداقل این چیزی است که من شنیدم. و با این حال، آنچه اتفاق افتاده است، مسلماً برعکس است. انتشار شما از GPT، به خصوص ChatGPT، چنان موجی از شوک را در دنیای فناوری ایجاد کرد که اکنون گوگل و متا و غیره همگی در تلاش برای رسیدن به آن هستند. و برخی از انتقادات آنها این بوده است که شما ما را مجبور می کنید بدون گاردریل مناسب این موضوع را اینجا مطرح کنیم وگرنه می میریم. می دانی، چگونه می توانی به این نتیجه برسی که کاری که انجام داده ای در اینجا مسئول است و بی پروا نیست. جی بی: بله، ما همیشه به این سوالات فکر می کنیم. به طور جدی همیشه. و من فکر نمی کنم که ما همیشه آن را درست انجام دهیم. اما من فکر میکنم یک چیز فوقالعاده مهم بوده است، از همان ابتدا، زمانی که ما به این فکر میکردیم که چگونه هوش عمومی مصنوعی بسازیم، در واقع به نفع تمام بشریت باشد، مثلاً چگونه قرار است این کار را انجام دهید، درست است؟ و آن طرح پیشفرض بودن، خوب، شما مخفیانه میسازید، این چیز فوقالعاده قدرتمند را دریافت میکنید، و سپس ایمنی آن را درمییابید و سپس «برو» را فشار میدهید، و امیدوارید که آن را درست انجام داده باشید. من نمی دانم چگونه آن نقشه را اجرا کنم. شاید شخص دیگری انجام دهد. اما برای من، این همیشه وحشتناک بود، احساس درستی نداشت. و بنابراین من فکر می کنم که این رویکرد جایگزین تنها راه دیگری است که می بینم، و آن این است که شما اجازه می دهید واقعیت به چهره شما ضربه بزند. و من فکر می کنم شما به مردم زمان می دهید تا نظر بدهند. قبل از اینکه این ماشینها بینقص باشند، قبل از اینکه فوقالعاده قدرتمند باشند، واقعاً این توانایی را دارید که آنها را در عمل ببینید. و ما آن را از GPT-3 دیدهایم، درست است؟ GPT-3، ما واقعاً می ترسیدیم که اولین کاری که مردم قرار است با آن انجام دهند تولید اطلاعات نادرست است، سعی کنید به انتخابات اشاره کنید. در عوض، اولین چیز ایجاد اسپم ویاگرا بود. (خنده) CA: بنابراین هرزنامه ویاگرا بد است، اما چیزهایی وجود دارد که بسیار بدتر هستند. در اینجا یک آزمایش فکری برای شما وجود دارد. فرض کنید در اتاقی نشسته اید، جعبه ای روی میز است. شما معتقدید که در آن جعبه چیزی است که، به احتمال بسیار زیاد چیزی کاملاً باشکوه است که هدایای زیبایی به خانواده شما و به همه بدهد. اما در واقع یک درصد هم در چاپ کوچک وجود دارد که می گوید: «پاندورا». و این احتمال وجود دارد که این واقعاً شرارت های غیرقابل تصوری را در جهان ایجاد کند. اون جعبه رو باز میکنی؟ جی بی: خب، قطعاً نه. من فکر می کنم شما این کار را انجام نمی دهید. و صادقانه بگویم، داستانی را به شما می گویم که قبلاً نگفته بودم، و آن این است که مدت کوتاهی پس از شروع OpenAI، به یاد دارم که برای یک کنفرانس هوش مصنوعی در پورتوریکو بودم. من در اتاق هتل نشستهام و فقط به این آب فوقالعاده نگاه میکنم، همه این آدمها اوقات خوبی را سپری میکنند. و برای لحظهای به آن فکر میکنید، اگر بتوانید اساساً جعبه پاندورا را انتخاب کنید که پنج سال دور باشد یا 500 سال، کدام را انتخاب میکنید، درست است؟ از یک طرف شما اینطور هستید، خوب، شاید برای شخص شما، بهتر است پنج سال دیگر باشد. اما اگر 500 سال دورتر باشد و مردم زمان بیشتری برای درست کردن آن داشته باشند، کدام را انتخاب می کنید؟ و می دانید، من واقعاً آن را در لحظه احساس کردم. من فکر می کردم، البته شما این 500 سال را انجام می دهید. برادر من در آن زمان در ارتش بود و مانند آن، او زندگی خود را به شیوه ای بسیار واقعی تر از هر یک از ما که چیزهایی را در رایانه تایپ می کردیم و در آن زمان این فناوری را توسعه می دادیم، به خطر انداخت. و بنابراین، بله، من واقعاً با قیمتی که باید به این موضوع نزدیک شوید فروخته شده ام. اما من فکر نمیکنم آنطور که واقعاً دروغ میگوید، این کاملاً درست بازی کردن نیست. مثلاً، اگر به کل تاریخ محاسبات نگاه کنید، واقعاً منظورم این است که میگویم این یک تحول در سطح صنعت یا حتی تقریباً شبیه یک تغییر توسعه انسانی در سراسر فناوری است. و هر چه بیشتر بخواهید، قطعات موجود را کنار هم نگذارید، درست است، ما همچنان کامپیوترهای سریع تری می سازیم، ما هنوز در حال بهبود الگوریتم ها هستیم، همه این چیزها، آنها در حال وقوع هستند. و اگر آنها را کنار هم قرار ندهید، یک overhang می کنید، به این معنی که اگر کسی این کار را انجام دهد، یا لحظه ای که یک نفر موفق به اتصال به مدار شود، ناگهان شما این چیز بسیار قدرتمند را خواهید داشت، هیچ کس وقت ندارد تنظیم کنید، چه کسی می داند چه نوع اقدامات احتیاطی ایمنی را دریافت می کنید. و بنابراین فکر میکنم یک چیزی که من حذف میکنم این است که حتی شما به توسعه انواع دیگر فناوریها فکر کنید، به سلاحهای هستهای فکر کنید، مردم در مورد صفر به یک بودن صحبت میکنند، نوعی تغییر در کاری که انسانها میتوانند انجام دهند. اما من در واقع فکر می کنم که اگر به قابلیت نگاه کنید، در طول زمان کاملاً روان بوده است. و بنابراین، من فکر می کنم، تاریخچه هر فناوری که ما توسعه داده ایم، بوده است، شما باید آن را به صورت تدریجی انجام دهید و باید بفهمید که چگونه آن را برای هر لحظه که آن را افزایش می دهید، مدیریت کنید. ک.ای.: پس چیزی که من میشنوم این است که شما... الگویی که میخواهید داشته باشیم این است که ما این کودک خارقالعاده را به دنیا آوردهایم که ممکن است قدرتهای فوقالعادهای داشته باشد که بشریت را به مکانی کاملاً جدید میبرد. این وظیفه جمعی ماست که حفاظ هایی را برای این کودک فراهم کنیم تا به طور جمعی به او بیاموزیم عاقل باشد و همه ما را خراب نکند. آیا اساساً این مدل است؟ جیبی: فکر میکنم این درست است. و من فکر می کنم مهم است که بگوییم این ممکن است تغییر کند، درست است؟ ما باید هر قدمی را که با آن روبرو می شویم برداریم. و من فکر میکنم امروز بسیار مهم است که همه ما در این فناوری سواد داشته باشیم، نحوه ارائه بازخورد را بیابیم، تصمیم بگیریم که از آن چه میخواهیم. و امید من این است که این بهترین مسیر ادامه پیدا کند، اما این خیلی خوب است که صادقانه این بحث را انجام می دهیم زیرا اگر آن بیرون نبود، در غیر این صورت این کار را نمی کردیم. کالیفرنیا: گرگ براکمن، بسیار متشکرم که به TED آمدید و ذهن ما را به باد دادید.