نبایدهای استفاده از هوش مصنوعی

دنیای اقتصاد سه شنبه 19 فروردین 1404 - 00:46
برخی از محققان هوش مصنوعی می‌گویند باید در انتخاب آنچه که به این ابزارهای شبیه انسان می‌گوییم، دقت بیشتری داشته باشیم. برخی اطلاعات به‌ویژه خطرناک هستند که باید از اشتراک‌گذاری آنها اجتناب کرد.

گروه آنلاین روزنامه دنیای اقتصاد- نیلوفر ادیب‌نیا؛ وال استریت ژورنال در گزارشی به نبایدهای استفاده ازهوش مصنوعی پرداخته است. نویسنده در این گزارش تجربیات خود در استفاده از هوش مصنوعی را بازگو می کند. او در این گزارش نوشته است: «من در چند سال گذشته از چت‌جی‌پی‌تی اپن‌ای‌آی چیزهای زیادی یاد گرفته‌ام. و این ربات هم چیزهای زیادی درباره من یاد گرفته است. هوش مصنوعی از طریق گفت و گوهای متعددمان اطلاعاتی به‌دست آورد و آنها را در حافظه خود ذخیره کرد. به یاد داشت که من تخم‌مرغ دوست دارم، یک نوزاد دارم که برای خوابیدن شیر می‌خورد و باید تمرینات ورزشی‌ام را به‌خاطر کمر دردم تغییر دهم."

به گفته نویسنده همچنین حتی چیزهای شخصی‌تری را به یاد داشت که در اینجا تکرار نمی‌کنم.

مهم نیست کدام چت‌بات را انتخاب می‌کنید، هرچه بیشتر به اشتراک بگذارید، این ابزارها می‌توانند مفیدتر باشند. بیماران آزمایش‌های خون خود را برای تجزیه و تحلیل آپلود می‌کنند و مهندسان بخش‌هایی از کدهای منتشرنشده را برای کمک به رفع باگ ها در آن قرار می‌دهند.

برخی از محققان هوش مصنوعی می‌گویند باید در انتخاب آنچه که به این ابزارهای شبیه انسان می‌گوییم، دقت بیشتری داشته باشیم. برخی اطلاعات به‌ویژه خطرناک هستند که باید از اشتراک‌گذاری آنها اجتناب کرد؛  مانند شماره تأمین اجتماعی یا داده‌های اختصاصی شرکت شما.

براساس این گزارش، شرکت‌های هوش مصنوعی برای بهبود مدل‌های خود به داده‌ها نیاز دارند، اما حتی آنها هم نمی‌خواهند اسرار ما را داشته باشند. از سوی اپن‌ای‌آی، بارها تاکیده شده است که لطفا هیچ اطلاعات حساسی را در گفت وگوهای خود به اشتراک نگذارید و گوگل از کاربران جمنی خود خواهش می‌کند لطفا اطلاعات محرمانه یا داده‌هایی را که نمی‌خواهید بررسی‌کننده آنها را ببیند،  وارد نکنید.

چت‌بات‌ها می‌توانند به طرز عجیبی شبیه انسان به نظر برسند، که موجب می‌شود که مردم در گفت وگوهای خود با آنها به طور غیرمنتظره‌ای باز و صادق باشند. به گفته جنیفر کینگ، عضو مؤسسه هوش مصنوعی انسانی استنفورد زمانی که چیزی را در یک چت‌بات تایپ می‌کنید مالکیت آن را از دست می‌دهید. تاریخچه گفت وگوهای شما ممکن است در صورت وقوع نفوذ امنیتی به بخشی از داده‌های هک‌شده تبدیل شود یا در صورت صدور حکم قضایی، در اختیار مراجع قانونی قرار گیرد. برای محافظت از حساب خود، استفاده از رمز عبور قوی و فعال‌سازی احراز هویت چندمرحله‌ای، ضروری است.

همچنین توصیه می‌شود از وارد کردن اطلاعات زیر در دستورات خود خودداری کنید:

اطلاعات هویتی:این اطلاعات شامل شماره تأمین اجتماعی، گواهینامه رانندگی و گذرنامه، همچنین تاریخ تولد، آدرس و شماره تلفن شما می‌شود. 

نتایج پزشکی: محرمانگی، یک ارزش اساسی در مراقبت‌های بهداشتی است تا از تبعیض و شرمندگی جلوگیری شود، اما چت‌بات‌ها معمولا بخشی از حفاظت ویژه‌ای که برای داده‌های بهداشتی در نظر گرفته شده‌اند، نیستند. اگر وسوسه شدید از هوش مصنوعی بخواهید تا نتایج آزمایشگاهی شما را تفسیر کند، تصویر را برش داده یا سند را ویرایش کنید.

حساب‌های مالی: از شماره‌های حساب بانکی و سرمایه‌گذاری خود محافظت کنید، زیرا ممکن است از آنها برای نظارت یا دسترسی به وجوه شما استفاده شود.

اطلاعات اختصاصی شرکتی: اگر از نسخه‌های عمومی چت‌بات‌های محبوب برای امور کاری استفاده می‌کنید، ممکن است به‌طور ناخواسته اطلاعات مشتریان یا اسرار تجاری غیرعمومی را افشا کنید؛ حتی با انجام کاری به‌ظاهر ساده مانند نوشتن یک ایمیل. به عنوان مثال، پس از افشای کد منبع داخلی توسط یکی از مهندسان، شرکت سامسونگ استفاده از چت‌جی‌پی‌تی را ممنوع کرد. اگر هوش مصنوعی در شغل شما کاربرد دارد، بهتر است شرکت‌تان از نسخه سازمانی این ابزارها استفاده کند یا یک هوش مصنوعی سفارشی با تدابیر امنیتی مخصوص به شرکت راه‌اندازی کند.

ورود به سیستم‌ها: با گسترش استفاده از عوامل هوش مصنوعی که توانایی انجام وظایف واقعی را دارند، دلایل بیشتری برای واگذاری اطلاعات حساب‌ها به چت‌بات‌ها به‌وجود آمده است. اما باید در نظر داشت که این ابزارها برای ایفای نقش گاوصندوق‌های دیجیتال طراحی نشده‌اند. رمزهای عبور، پین‌ها و سوالات امنیتی‌تان را تنها در مدیریت رمز عبور مطمئن ذخیره کنید.

منبع خبر "دنیای اقتصاد" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.