رهبران  شرکت «OpenAI»  که  چت جی‌پی‌تی را توسعه داده‌اند به منظور حفاظت از بشریت در برابر هوش مصنوعی «فوق‌هوشمند» خواستار ایجاد سازمانی معادل آژانس بین‌المللی انرژی اتمی شدند.

در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، بنیانگذاران Greg Brockman و Ilya Sutskever و مدیر اجرایی، Sam Altman، از یک تنظیم کننده بین المللی می خواهند تا شروع به کار در مورد چگونگی “بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی” کند. ، [و] محدودیت هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش “خطر وجودی” چنین سیستم هایی ایجاد می کند.

آنها می نویسند: «می توان تصور کرد که در 10 سال آینده، سیستم های هوش مصنوعی در بیشتر حوزه ها از سطح مهارت های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت های امروزی فعالیت های سازنده ای را انجام خواهند داد. از نظر جنبه‌های مثبت و منفی بالقوه، ابر هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. ما می توانیم آینده ای به طور چشمگیری مرفه تر داشته باشیم. اما برای رسیدن به آن باید ریسک را مدیریت کنیم. با توجه به احتمال خطر وجودی، ما نمی توانیم فقط واکنش نشان دهیم.»

این سه نفر در کوتاه مدت خواستار «درجاتی از هماهنگی» میان شرکت‌هایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار می‌کنند، تا اطمینان حاصل شود که توسعه مدل‌های قوی‌تر به راحتی با جامعه ادغام می‌شود و در عین حال ایمنی را در اولویت قرار می‌دهد. این هماهنگی می‌تواند از طریق یک پروژه تحت رهبری دولت، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.

محققان ده‌ها سال است که درباره خطرات بالقوه این ابرهوش هشدار می‌دهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینی‌تر شده‌اند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» کار می‌کند، هشت دسته خطر «فاجعه بار» و «وجودی» را که توسعه هوش مصنوعی می‌تواند ایجاد کند، توصیف می‌کند.

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب‌های مخرب دیگری را توصیف می‌کند. جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند، می‌تواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها توسط بشر» شود که به عنوان «ناتوانی» توصیف می‌شود؛ و گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند، که منجر به از بین بردن  ارزش ها شود.

رهبران OpenAI می‌گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت‌ها و پیش فرض‌های سیستم‌های هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که ما هنوز نمی‌دانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آن‌ها می‌گویند توسعه مداوم سیستم‌های قدرتمند ارزش ریسک را دارد.

آن‌ها در این بیانیه نوشتند: ما معتقدیم که این امر به دنیایی بسیار بهتر از آنچه امروز می‌توانیم تصور کنیم منجر خواهد شد. ما در حال حاضر نمونه‌های اولیه آن را در زمینه‌هایی مانند آموزش، کار خلاق و بهره وری شخصی می‌بینیم. آن‌ها هشدار می‌دهند که توقف توسعه هوش مصنوعی نیز می‌تواند خطرناک باشد. از آنجایی که نکات مثبت بسیار زیادی دارد، هزینه ساخت آن هر سال کاهش می‌یابد، تعداد بازیگرانی که آن را می‌سازند به سرعت در حال افزایش است، و ذاتاً بخشی از مسیر تکنولوژیکی است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست؛ بنابراین ما باید آن را درست انجام دهیم.