انتقاد شدید پژوهشگر سابق OpenAI به این شرکت: بی‌مسئولیتی در قبال ایمنی هوش مصنوعی

دیجیاتو جمعه 17 اسفند 1403 - 18:32
پژوهشگر سابق OpenAI، توسعه تدریجی AGI را خطرناک خواند و هشدار داد که سازنده ChatGPT ایمنی را نادیده می‌گیرد. The post انتقاد شدید پژوهشگر سابق OpenAI به این شرکت: بی‌مسئولیتی در قبال ایمنی هوش مصنوعی appeared first on دیجیاتو.

«مایلز براندیج»، پژوهشگر سابق سیاست‌گذاری OpenAI، در یک رشته توییت مفصل، شرکت سابق خود را به دلیل بازنویسی تاریخچه توسعه هوش مصنوعی و بی‌تفاوتی نسبت به نگرانی‌های ایمنی مورد انتقاد قرار داد. این انتقادات در پاسخ به سند اخیر OpenAI مطرح شده‌اند که در آن، شرکت ادعا کرده است توسعه هوش جامع مصنوعی (AGI) را در قالب گام‌های کوچک و تدریجی پیش می‌برد، نه با یک جهش بزرگ.

پژوهشگر سابق Op‌enAI، اخیراً سندی را که این شرکت در مورد «ایمنی و همسویی» منتشر کرده، مورد انتقاد قرار داده است. این سند بیان می‌کند که O‌penAI در تلاش است تا هوش جامع مصنوعی (AGI) را در گام‌های کوچک و نه با یک جهش بزرگ توسعه دهد. Op‌enAI ادعا کرده که فرآیند استقرار تدریجی به آن اجازه می‌دهد تا مسائل ایمنی را شناسایی کرده و امکان سوءاستفاده از هوش مصنوعی را در هر مرحله بررسی کند.

در میان انتقادات فراوان به فناوری‌های هوش مصنوعی مانند ChatGPT، نگرانی‌هایی وجود دارد که این چت‌بات‌ها ممکن است اطلاعات نادرستی در مورد سلامت و ایمنی ارائه دهند یا برای دستکاری سیاسی، انتشار اطلاعات نادرست و کلاهبرداری مورد استفاده قرار گیرند. OpenAI به‌طور خاص به دلیل عدم شفافیت در توسعه مدل‌های هوش مصنوعی خود که ممکن است حاوی داده‌های شخصی حساس باشند، مورد انتقاد قرار گرفته است.

انتشار این سند توسط OpenAI به نظر می‌رسد پاسخی به این نگرانی‌ها باشد. در این سند اشاره شده است که توسعه مدل GPT-2 قبلی «ناپیوسته» بوده و به دلیل «نگرانی‌هایی که در مورد کاربردهای مخرب» آن وجود داشت در ابتدا منتشر نشد، اما اکنون این شرکت به سمت اصل توسعه تدریجی حرکت می‌کند. با این حال، براندیج ادعا می‌کند که این سند در حال تحریف روایت تاریخی است و تصویر دقیقی از تاریخچه توسعه هوش مصنوعی در OpenAI ارائه نمی‌دهد.

انتقاد از OpenAI

براندیج در پستی در شبکه اجتماعی X نوشت:

«انتشار GPT-2 توسط OpenAI، که من در آن مشارکت داشتم، کاملاً با فلسفه فعلی استقرار تدریجی این شرکت همسو بود. این مدل به‌صورت گام‌به‌گام منتشر شد و در هر مرحله درس‌های آن به اشتراک گذاشته شد. بسیاری از متخصصان امنیتی در آن زمان از ما به خاطر این احتیاط تشکر کردند.»

او با اشاره به بخشی از سند OpenAI که توسعه GPT-2 را «ناپیوسته» توصیف کرده، این ادعا را نادرست خواند و می‌گوید:

«هیچ بخشی از این فرآیند بر این اساس نبود که AGI را پدیده‌ای ناپیوسته بدانیم. همچنین، هیچ شواهدی وجود ندارد که نشان دهد احتیاط ما در آن زمان «نامتناسب» بوده است. حتی اگر بعداً مشخص شود که همه چیز خوب پیش رفته، این به معنای آن نیست که بی‌محابا عمل کردن در آن زمان مسئولانه بود.»

وی همچنین رویکرد شرکت به مدیریت ریسک را بر اساس این سند مورد انتقاد قرار داد و نوشت:

«به نظر می‌رسد که در این سند بار اثبات بر دوش منتقدان گذاشته شده است، به‌طوری که نگرانی‌ها اغراق‌آمیز تلقی می‌شوند و شما نیاز به شواهد قاطع از خطرات قریب‌الوقوع دارید تا اقدام کنید – در غیر این صورت، فقط به کار خود ادامه دهید. این یک ذهنیت بسیار خطرناک برای سیستم‌های پیشرفته هوش مصنوعی است.»

او در ادامه نوشته است:

«اگر هنوز در OpenAI کار می‌کردم، از خودم می‌پرسیدم چرا این پست وبلاگ به این شکل نوشته شده و دقیقاً OpenAI با بی‌اهمیت جلوه دادن احتیاط به این شکل، چه هدفی را دنبال می‌کند؟»

این انتقادات در حالی مطرح می‌شود که OpenAI تحت بررسی‌های فزاینده‌ای قرار دارد و متهم است که به جای اولویت‌دادن به ایمنی، به تولید «محصولات جذاب» توجه بیشتری می‌کند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.