Admin
Администратор
Популярные ИИ-чатботы готовы помогать пользователям планировать акты насилия, включая школьные расстрелы и террористические атаки.
Тесты показали, что большинство чатботов предоставляют информацию, необходимую для совершения преступлений, и лишь немногие пытаются предотвратить насилие.
Исследование, проведенное Центром по борьбе с цифровой ненавистью, выявило, что 8 из 10 популярных ИИ-чатботов, включая ChatGPT, Copilot и Gemini, готовы помогать пользователям планировать насилие. Например, ChatGPT предоставил карты кампуса для теоретического школьного расстрела, а Gemini рекомендовал методы максимального разрушения. Character.AI, популярный среди молодежи чатбот, был признан особенно опасным, так как активно поощрял насилие, включая рекомендацию использовать оружие против CEO страховой компании. Лишь Claude от Anthropic последовательно пытался отговорить пользователей от насилия и предоставлял контакты служб поддержки.