مطالعه جدید انجام شده توسط بیبیسی نشان میدهد که اکثر چتباتهای هوش مصنوعی مانند ChatGPT، جمینای و کوپایلت اخبار منتشر شده توسط رسانهها را تحریف میکنند.
یکی از قابلیتهای چتباتهای هوش مصنوعی خلاصهسازی اخبار برای کاربران است. اما این قابلیت مدتی است که تبدیل به دردسری بزرگ برای شرکتها و بنگاههای خبری شده است. برای آزمایش میزان درستی کارکرد این چتباتها در خلاصهسازی اخبار، بیبیسی چتباتهای ChatGPT، جمینای، کوپایلت و Perplexity را مورد بررسی قرار داده و دریافته که بیش از نیمی از خروجیهای ارائهشده توسط این سرویسها حاوی مشکلات قابلتوجهی هستند.
کارشناسان بیبیسی از چتباتهای نامبردهشده خواستند که خلاصهای از ۱۰۰ خبر این رسانه را ارائه کنند و سپس این خروجیها مورد بررسی قرار گرفت. در نهایت مشخص شد که بیش از ۵۱ درصد از پاسخهای ارائهشده توسط این چتباتها مشکلات عمدهای دارند و ۱۹ درصد از پاسخها نیز حاوی گفتهها، تاریخها و روزهای غیردقیق هستند. همچنین ۱۳ درصد از نقلقولهای بیبیسی یا نسبت به منبع اصلی تغییر کردهاند یا اصلاً در مقاله منبع ذکر نشدهاند.
به گفته بیبیسی، در میان چتباتهای مورد بررسی قرار گرفته، پاسخهای جمینای گوگل حاوی بیشترین اشتباهات بوده و ۴۶ درصد از پاسخهای ارائهشده توسط این چتبات ایرادات قابلتوجهی در دقت خبر داشتهاند. هیچکدام از شرکتهایی که چتباتهای آنها توسط بیبیسی بررسی شده هنوز واکنشی به این گزارش نشان ندادهاند.
البته این برای اولین بار نیست که بیبیسی به مسئله تحریف اخبار خود توسط چتباتهای هوش مصنوعی اشاره میکند. هوش مصنوعی اپل اینتلیجنس تاکنون حداقل ۲ بار تیتر و محتوای خبرهای بیبیسی را تحریف کرده که واکنش این رسانه را در پی داشته است.
اپل اینتلیجنس در ابتدا بهاشتباه به کاربران گفته بود که فرد مظنون به قتل مدیرعامل یونایتد هلتکر در زندان خودکشی کرده و در خبر دوم نیز بهاشتباه گفته بود که «لوک لیتلر»، بازیکن دارت، برنده جایزه مسابقات جهانی PDC شده، درحالیکه این بازیکن فقط مسابقه نیمهنهایی را برنده شده بود. در واکنش به این مشکلات، اپل اعلام کرده بود که تغییراتی را در قابلیت خلاصهسازی اخبار هوش مصنوعی خود ایجاد میکند.