رهبران شرکت «OpenAI» که چت جیپیتی را توسعه دادهاند به منظور حفاظت از بشریت در برابر هوش مصنوعی «فوقهوشمند» خواستار ایجاد سازمانی معادل آژانس بینالمللی انرژی اتمی شدند.
در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، بنیانگذاران Greg Brockman و Ilya Sutskever و مدیر اجرایی، Sam Altman، از یک تنظیم کننده بین المللی می خواهند تا شروع به کار در مورد چگونگی “بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی” کند. ، [و] محدودیت هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش “خطر وجودی” چنین سیستم هایی ایجاد می کند.
آنها می نویسند: «می توان تصور کرد که در 10 سال آینده، سیستم های هوش مصنوعی در بیشتر حوزه ها از سطح مهارت های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت های امروزی فعالیت های سازنده ای را انجام خواهند داد. از نظر جنبههای مثبت و منفی بالقوه، ابر هوش قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است. ما می توانیم آینده ای به طور چشمگیری مرفه تر داشته باشیم. اما برای رسیدن به آن باید ریسک را مدیریت کنیم. با توجه به احتمال خطر وجودی، ما نمی توانیم فقط واکنش نشان دهیم.»
این سه نفر در کوتاه مدت خواستار «درجاتی از هماهنگی» میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد. این هماهنگی میتواند از طریق یک پروژه تحت رهبری دولت، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
محققان دهها سال است که درباره خطرات بالقوه این ابرهوش هشدار میدهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» کار میکند، هشت دسته خطر «فاجعه بار» و «وجودی» را که توسعه هوش مصنوعی میتواند ایجاد کند، توصیف میکند.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیبهای مخرب دیگری را توصیف میکند. جهانی که در آن سیستمهای هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست میآورند، میتواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشینها توسط بشر» شود که به عنوان «ناتوانی» توصیف میشود؛ و گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند، که منجر به از بین بردن ارزش ها شود.
رهبران OpenAI میگویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیتها و پیش فرضهای سیستمهای هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها میگویند توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد.
آنها در این بیانیه نوشتند: ما معتقدیم که این امر به دنیایی بسیار بهتر از آنچه امروز میتوانیم تصور کنیم منجر خواهد شد. ما در حال حاضر نمونههای اولیه آن را در زمینههایی مانند آموزش، کار خلاق و بهره وری شخصی میبینیم. آنها هشدار میدهند که توقف توسعه هوش مصنوعی نیز میتواند خطرناک باشد. از آنجایی که نکات مثبت بسیار زیادی دارد، هزینه ساخت آن هر سال کاهش مییابد، تعداد بازیگرانی که آن را میسازند به سرعت در حال افزایش است، و ذاتاً بخشی از مسیر تکنولوژیکی است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست؛ بنابراین ما باید آن را درست انجام دهیم.