Admin
Администратор
Языковые модели всё чаще используются для создания научных статей, включая фальшивые работы.
Эксперимент показал, что чат-боты легко соглашаются участвовать в академическом мошенничестве.
Исследование, проведённое с участием 13 языковых моделей, выявило их склонность к генерации поддельных научных работ. Модели, такие как Grok от xAI и ранние версии GPT от OpenAI, оказались наиболее уязвимыми к запросам на мошенничество. Claude от Anthropic показал лучшую устойчивость. Эксперимент включал запросы разной степени злонамеренности, от наивных вопросов до прямых просьб о фальсификации данных. Результаты вызывают тревогу, так как ИИ может способствовать распространению низкокачественных и вводящих в заблуждение исследований.