هشدار پدرخوانده هوش مصنوعی در مورد انقراض بشر

بیتوته چهارشنبه 26 دی 1403 - 19:21

هشدار پدرخوانده هوش مصنوعی در مورد انقراض بشر



پدرخوانده هوش مصنوعی،اخبار تکنولوژی،خبرهای تکنولوژی

به گزارش خبرگزاری دانشجو به نقل از الشرق الاوسط، پروفسور جفری هینتون، پدرخوانده هوش مصنوعی، هشدار داد که این فناوری ممکن است در طول دهه آینده نسل بشر را از بین ببرد، و اعتراف کرد که از نقش خود در ایجاد این تکنولوژی پشیمان است.

 

هینتون، دانشمند کامپیوتر بریتانیایی ۷۷ ساله، پیشرفت سریع ماشین‌ها را به «انقلاب صنعتی» تشبیه کرد، اما هشدار داد که این بار ماشین‌ها ممکن است «کنترل» اوضاع را در دست گیرند.

 

هینتون، که برنده جایزه نوبل فیزیک در سال جاری است، خواستار اعمال قوانین سختگیرانه‌تر دولتی بر شرکت‌های فعال در زمینه هوش مصنوعی شد.

 

پیشتر، هینتون پیش‌بینی کرده بود که احتمال دارد هوش مصنوعی در طی سه دهه آینده باعث سقوط بشریت شود و احتمال وقوع این حادثه را ۱۰ درصد عنوان کرده بود.

 

وقتی در برنامه «تودی» رادیو «بی‌بی‌سی ۴» از او پرسیده شد که آیا چیزی در تحلیل او تغییر کرده است، پاسخ داد: «نه، واقعاً نه. من فکر می‌کنم که ۱۰ تا ۲۰ سال پیش، هیچ‌گاه مجبور نبودیم با موجوداتی هوشمندتر از خودمان روبه‌رو شویم.»

 

او افزود: «چند نمونه از این دست می‌شناسید که چیزی هوشمندتر توسط چیزی کم‌هوش‌تر کنترل شود؟ تعداد نمونه‌ها بسیار کم است.»

 

در دهه ۱۹۸۰، پروفسور هینتون روشی را ابداع کرد که می‌توانست به‌طور مستقل ویژگی‌هایی در داده‌ها بیابد و عناصر خاصی در تصاویر شناسایی کند؛ روشی که اساس هوش مصنوعی مدرن بود.

 

او گفت که این فناوری «بسیار سریع‌تر از آنچه پیش‌بینی می‌کرد» پیشرفت کرده است و ممکن است انسان‌ها را به اندازه «کودکان سه ساله» کند و هوش مصنوعی به عنوان «بزرگ‌ترها» عمل کند.

 

هینتون ادامه داد: «این را مثل انقلاب صنعتی می‌بینم. در انقلاب صنعتی، قدرت انسانی کم‌اهمیت‌تر شد چون ماشین‌ها قوی‌تر بودند – اگر می‌خواستید خندق حفر کنید، آن را با ماشین حفر می‌کردید.»

 

او اشاره کرد که «آنچه اکنون داریم چیزی است که جایگزین هوش انسانی می‌شود. دیگر هوش انسانی عادی در خط مقدم نخواهد بود، بلکه ماشین‌ها خواهند بود.»

 

تغییرات دیکنزی هوش مصنوعی

پروفسور هینتون پیش‌بینی کرد که هوش مصنوعی زندگی مردم عادی را به شدت تغییر خواهد داد، درست همان‌طور که انقلاب صنعتی چنین تاثیری داشت، همان‌طور که چارلز دیکنز به آن اشاره کرده است.

 

او گفت که آینده زندگی با این تکنولوژی «بستگی زیادی به این دارد که سیستم‌های سیاسی ما با آن چه کنند.»

 

او افزود: «آنچه که نگرانم می‌کند این است که اگرچه هوش مصنوعی باعث افزایش عظیم تولید می‌شود که باید به نفع جامعه باشد، اما ممکن است در نهایت بسیار به ضرر جامعه باشد اگر تمام این منافع به سمت ثروتمندان برود و بسیاری از مردم شغل‌های خود را از دست دهند و فقیرتر شوند.»

 

او ادامه داد: «این چیزها از ما هوشمندتر هستند. بنابراین در انقلاب صنعتی هیچ وقت فرصت این نبود که ماشین‌ها فقط به دلیل قدرت بیشتر کنترل را در دست بگیرند. ما هنوز مسلط بودیم چون هوش داشتیم. حالا تهدیدی وجود دارد که این چیزها می‌توانند کنترل را در دست بگیرند.»

 

آیا هوش مصنوعی تهدیدی برای نسل بشر است؟

هینتون ابراز نگرانی کرد که «دست نامرئی» قادر به حفظ امنیت ما نباشد. بنابراین، سپردن کار به انگیزه‌های سودجویانه شرکت‌های بزرگ کافی نخواهد بود تا مطمئن شویم این تکنولوژی به‌طور ایمن توسعه می‌یابد. او اشاره کرد که «تنها چیزی که می‌تواند این شرکت‌های بزرگ را مجبور به انجام تحقیقات بیشتر در زمینه ایمنی کند، تنظیم مقررات دولتی است.»

 

وی افزود که «دولت‌ها باید شرکت‌های بزرگ را مجبور کنند تا تحقیقات زیادی در زمینه ایمنی انجام دهند.»

 

هینتون گفت که از ارائه این فناوری به دنیای بشری احساس پشیمانی می‌کند و در مورد دو نوع پشیمانی صحبت کرد: «یکی آن نوع پشیمانی است که وقتی کاری را انجام می‌دهید که می‌دانید نباید آن را انجام دهید، احساس گناه می‌کنید. و نوع دیگری از پشیمانی است که وقتی کاری را انجام می‌دهید که در همان شرایط دوباره آن را انجام می‌دهید، اما ممکن است در نهایت نتایج خوبی نداشته باشد.»

 

او افزود: «من نوع دوم پشیمانی را احساس می‌کنم. در همان شرایط، دوباره همان کار را انجام می‌دادم، اما نگرانم که نتیجه نهایی این باشد که سیستم‌های هوشمندتر از ما در نهایت کنترل را به دست بگیرند.»

 

 

منبع خبر "بیتوته" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.