به گزارش پردیسان آنلاین و به نقل از الجزیره، مطالعهای مشترک از اتحادیه رادیو و تلویزیونهای اروپا (EBU) و بیبیسی نشان داده است که مدلهای هوش مصنوعی مانند ChatGPT، Gemini، Copilot و Perplexity در بازگویی رویدادهای خبری، در حدود ۴۵ درصد موارد دچار اشتباههای قابل توجه میشوند.
این پژوهش که روز چهارشنبه منتشر شد، دقت بیش از ۲۷۰۰ پاسخ را که این سامانهها میان اواخر ماه مه تا اوایل ژوئن به پرسشهای ۲۲ رسانه عمومی از ۱۸ کشور و در ۱۴ زبان دادهاند، مورد ارزیابی قرار داده است.
بر پایه نتایج این تحقیق، بیشترین ایراد مربوط به منبعدهی نادرست بوده است؛ بهگونهای که ۳۱ درصد از پاسخها شامل اطلاعاتی بودهاند که یا پشتوانهای در منبع ذکرشده نداشتهاند، یا با استنادهای اشتباه و غیرقابلتأیید همراه بودهاند.
پس از آن، کاهش دقت در بیان واقعیتها (۲۰ درصد پاسخها) و نبود زمینهسازی مناسب برای درک محتوا (۱۴ درصد) در ردههای بعدی قرار گرفتهاند.
در میان مدلهای مورد بررسی، Gemini گوگل بیشترین میزان خطا را داشته است؛ بهطوریکه ۷۶ درصد از پاسخهایش با ایرادهای منبعی روبهرو بودهاند. بااینحال، سایر مدلها نیز از اشتباهات بنیادی مصون نبودهاند؛ برای نمونه، Perplexity ادعا کرده که رحم اجارهای در جمهوری چک غیرقانونی است و ChatGPT نیز پاپ فرانسیس را همچنان رهبر زنده کلیسای کاتولیک معرفی کرده است.
چهار شرکت OpenAI، گوگل، مایکروسافت و Perplexity هنوز در برابر درخواست رسانهها برای اظهارنظر درباره یافتههای این تحقیق واکنشی نشان ندادهاند.
در مقدمه گزارش، ژان فیلیپ دتندر، معاون دبیرکل اتحادیه رادیو و تلویزیونهای اروپا، و پیت آرچر، رئیس بخش هوش مصنوعی بیبیسی، از شرکتهای فناوری خواستهاند تا کاهش خطا را در اولویت کاری خود قرار دهند و نتایج عملکرد مدلهایشان را بهصورت شفاف و منظم برای هر زبان و بازار منتشر کنند.
به گفته این دو مقام رسانهای، «فناوری اگر قرار است شریک رسانهها در روایت حقیقت باشد، باید اول خود را به دقت و صداقت متعهد کند.»