معظم مستخدمي روبوتات الدردشة تقبلوا إمكانية أن تختلق أدوات الذكاء الاصطناعي (IA) وقائع ومعطيات غير صحيحة. وعلى الرغم من الجهود التي يبذلها كاشفو المحتوى المزيف، والمتحققون من الحقائق، والنماذج اللغوية الكبيرة (LLM) التي أصبحت أكثر تطوراً، إلا أن أي مطور لم يجد حلاً لهذا المشكلة حتى الآن. في الوقت نفسه، تزداد عواقب المعلومات المضللة سوءاً، حيث يستخدم بعض الأفراد أدوات الذكاء الاصطناعي التوليدي (gen AI) مثل ChatGPT لإنشاء بحوث مزيفة.
دراسة حديثة نُشرت في مجلة Misinformation Review التابعة لكلية هارفارد كينيدي رصدت 139 مقالاً على Google Scholar، محرك البحث الخاص بالأبحاث العلمية، والتي يبدو أنها قد تم توليدها بواسطة الذكاء الاصطناعي. ووجد الباحثون معظم المقالات "المشكوك فيها" في مجلات غير مفهرسة (غير معتمدة)، رغم أن 19 منها تم العثور عليها في مجلات مفهرسة، كما ظهرت 19 دراسة أخرى في قواعد بيانات جامعية، يبدو أنها كُتبت من قبل طلاب.
محتوى هذه المقالات يثير المزيد من القلق. 57% من الدراسات المزيفة كانت حول مواضيع مثل الصحة، والتكنولوجيا المعلوماتية، والبيئة. وهي مجالات ذات صلة بصنع السياسات، وقد تؤثر على القرارات المتخذة في هذا المجال.
بعد تحليل الوثائق، حدد الباحثون أنها ربما تكون قد أُنتجت بواسطة الذكاء الاصطناعي بسبب تضمنها "على الأقل واحدة من الجملتين الشائعتين التي تستعملها روبوتات الدردشة التي تستخدم النماذج اللغوية الكبيرة (LLM) مثل ChatGPT الخاص بشركة OpenAI". وقد استخدم الفريق محرك بحث Google للعثور على أماكن نشر الوثائق، وحددوا عدة نسخ منها في قواعد بيانات، وأرشيفات وعلى وسائل التواصل الاجتماعي.
ويلاحظ المؤلفون أن قائمتهم ليست الأولى من الوثائق الأكاديمية المشتبه في توليدها بواسطة الذكاء الاصطناعي وأن أبحاثا جديدة تنضاف إلى القائمة.
رغم أن الدعاية والدراسات المتسرعة أو المزيفة ليست جديدة، فإن الذكاء الاصطناعي من الجيل الجديد يجعل من السهل بشكل كبير إنشاء هذا النوع من المحتوى. "وفرة من 'الدراسات' المزيفة التي تتسلل إلى جميع مجالات البحث العلمي تهدد بإغراق نظام النشر العلمي وتعريض نزاهة الأرشيف العلمي للخطر"، كما يحذر الباحثون في استنتاجاتهم. ويضيفون أنه من المقلق أن يتمكن أي شخص "بشكل مضلل" من إنشاء "محتوى يبدو علميًا مقنعًا" باستخدام الذكاء الاصطناعي وتحسينه ليتم ترتيبه على محركات البحث الشائعة مثل Google Scholar.