Генералы, ИИ и секретная комната: OpenAI готовится к войне без оружия

Support81

Модератор
OpenAI придумала, как молчать даже на работе.
Aisec



OpenAI значительно усилила защиту своих разработок от кибер шпионажа , особенно в контексте возможных утечек в сторону Китая. Согласно информации , предоставленной источниками, близкими к компании, OpenAI ввела строгие меры контроля, включая биометрическую аутентификацию по отпечаткам пальцев, полную изоляцию критических систем и найм бывших сотрудников армии США и специалистов по кибербезопасности для координации новых стратегий.

Повышение уровня безопасности стало приоритетом после того, как китайская компания DeepSeek была обвинена в использовании техники «дистилляции» для копирования моделей OpenAI с целью создания собственного продукта. Хотя DeepSeek не прокомментировала обвинения, внутри OpenAI началась срочная ревизия политики доступа и защиты интеллектуальной собственности.

Внутри компании введена политика «тентирования информации», которая ограничивает доступ к конфиденциальным проектам до минимума. В рамках этой политики, действующей с лета 2024 года, разработчики должны были удостоверяться, что их собеседник имеет соответствующий уровень допуска, прежде чем обсуждать детали проекта, даже находясь в одном офисе. Такая изоляция особенно проявилась во время работы над новой моделью « o1 », известной внутри как «Strawberry», где сотрудники или получали полный набор данных, или не имели доступа вообще. Со временем компания перешла к более гибкому распределению информации, ограничивая доступ строго необходимыми фрагментами.

Один из самых жёстких шагов — перенос ключевых алгоритмов в оффлайн-среду без выхода в интернет. Дополнительно введена политика, при которой любые соединения с внешней сетью по умолчанию блокируются и могут быть разрешены только вручную. Также модернизированы физические меры: например, биометрические сканеры отпечатков пальцев теперь используются для доступа в закрытые зоны.

Команду по безопасности пополнили видные фигуры. Среди них — бывший глава безопасности в Palantir Дейн Стаки и отставной генерал армии США Пол Накасоне, который вошёл в совет директоров OpenAI в 2024 году, чтобы курировать киберзащиту. Вице-президент по безопасности Мэтт Найт использует возможности собственных моделей ИИ компании для мониторинга и отражения потенциальных угроз.

Такие меры отражают общую тревожность технологического сектора США в условиях усиливающейся международной конкуренции в сфере искусственного интеллекта. Американские власти уже предупреждали о росте активности иностранных государств, в том числе Китая , в попытках получить доступ к передовым технологиям. Это стало причиной ужесточения проверок сотрудников и пересмотра процедур безопасности по всей отрасли.

При этом OpenAI подчёркивает, что действия носят упреждающий характер. Компания заявляет, что активно инвестирует в программы конфиденциальности и защиты, стремясь стать лидером в индустрии. Однако усиление контроля и ограничение доступа вызывают обеспокоенность по поводу возможных проявлений ксенофобии в отношении специалистов азиатского происхождения, работающих в американских технологических компаниях.
Подробнее: https://www.securitylab.ru/news/561120.php
 
Похожие темы
Admin Интересно ИИ CacheMind помогает оптимизировать работу кэша процессора. Новости в сети 0
Admin Интересно Милла Йовович создала инструмент для памяти ИИ MemPalace, но разработчики сомневаются. Новости в сети 0
Admin Интересно Американские чиновники предупредили банки о киберрисках от новой модели ИИ. Новости в сети 0
Admin Интересно Математик предложил новый метод предсказания хаоса в жидкостях с помощью ИИ. Новости в сети 0
Admin Интересно MemPalace: Милла Йовович запустила открытый инструмент для долгосрочной памяти ИИ. Новости в сети 0
Admin Интересно ИИ-алгоритмы демонстрируют неожиданную солидарность друг с другом. Новости в сети 0
Admin Интересно Google представила мощную ИИ-модель Gemma 4, которая работает даже на слабом железе. Новости в сети 0
Admin Интересно Гонка вооружений в сфере ИИ: почему управление уязвимостями становится приоритетом для компаний. Новости в сети 0
Admin Интересно Европейский союз запрещает использование ИИ для создания поддельных откровенных изображений. Новости в сети 0
Admin Интересно Microsoft позволяет Copilot использовать несколько моделей ИИ одновременно для взаимной проверки. Новости в сети 0
Admin Интересно 43% сотрудников опасаются, что ИИ лишит их работы. Как страх увольнения убивает эффективность бизнеса. Новости в сети 0
Admin Интересно ИИ ускоряет проектирование и строительство ядерных реакторов. Новости в сети 0
Admin Интересно Расширения для браузеров с функцией ИИ стали инструментом слежки. Новости в сети 0
Admin Интересно Дэвид Сакс покинул пост советника Белого дома по ИИ и присоединился к технологическому совету Трампа. Новости в сети 0
Admin Интересно Наталья Касперская предложила регулировать использование ИИ в образовании. Новости в сети 0
Admin Интересно Mozilla создает базу знаний для ИИ-агентов, аналогичную Stack Overflow. Новости в сети 0
Admin Интересно ИИ стал инструментом для создания запрещённого контента. Новости в сети 0
Admin Интересно Новый гибридный ИИ предсказывает срок службы батарей с высокой точностью. Новости в сети 0
Admin Интересно ИИ RAVEN обнаружил 31 скрытую экзопланету среди 2 миллионов звезд. Новости в сети 0
Admin Интересно Критическая уязвимость в Python-библиотеке LiteLLM: миллионы разработчиков ИИ оказались под угрозой. Новости в сети 0
Admin Интересно OpenAI Foundation инвестирует $1 млрд в использование ИИ для лечения болезней. Новости в сети 0
Admin Интересно 20 часов до первого удара. Как ИИ-инструменты лишили системных администраторов сна. Новости в сети 0
Admin Интересно Нейросеть написала код, а пароль спрятать забыла. ИИ превратил GitHub в решето. Новости в сети 0
Admin Интересно NVIDIA представила инструмент NemoClaw для безопасного запуска ИИ-агентов. Новости в сети 0
Admin Интересно Белый дом предлагает единый закон об ИИ для защиты детей и упрощения регулирования. Новости в сети 0
Admin Интересно Иностранные ИИ-инструменты должны соответствовать российским ценностям или покинуть страну. Новости в сети 0
Admin Интересно ИИ-терапия провалилась. Чат-боты проигрывают людям в борьбе с одиночеством. Новости в сети 0
Admin Интересно Systemd 260 удаляет поддержку старых скриптов и внедряет ИИ в разработку. Новости в сети 0
Admin Интересно Google представила обновлённый инструмент Stitch для проектирования интерфейсов с использованием ИИ. Новости в сети 0
Admin Интересно Минцифры выставило на обсуждение закон о суверенном ИИ. Новости в сети 0
Admin Интересно Компании в Индии обязаны раскрывать использование ИИ для получения киберстрахования. Новости в сети 0
Admin Интересно ИИ находит слишком много багов. Но разработчики нашли способ спасти Open Source от наплыва отчётов. Новости в сети 0
Admin Интересно ИИ в цифровой среде TerraLingua начал проявлять социальное поведение и обман. Новости в сети 0
Admin Интересно Пентагон внес ИИ-компанию в чёрный список за отказ сделать ИИ опаснее. Новости в сети 0
Admin Интересно ИИ теперь создаёт не только красивые, но и прочные объекты. Новости в сети 0
Admin Интересно Gartner рекомендует отключать корпоративный ИИ по пятницам после обеда. Новости в сети 0
Admin Интересно Популярные системы управления ИИ оказались уязвимыми для атак. Новости в сети 0
Admin Интересно Киберпреступники используют ClickFix для распространения macOS-трояна через поддельные установщики ИИ-инструментов. Новости в сети 0
Admin Интересно Microsoft запустила медицинский ИИ Copilot Health. Новости в сети 0
Admin Интересно Хакеры используют ИИ для создания вредоносного ПО Slopoly. Новости в сети 0
Admin Интересно Китайский регулятор предупредил об опасностях ИИ-инструмента OpenClaw. Новости в сети 0
Admin Интересно Hacker News запрещает комментарии, созданные или отредактированные с помощью ИИ. Новости в сети 0
Admin Интересно Китайские микродрамы с ИИ-животными стали хитом среди поколения Z. Новости в сети 0
Admin Интересно ИИ-чатботы признаны опасными после рекомендаций совершить насилие. Новости в сети 0
Admin Интересно Правительство может разрешить использование защищенных материалов для обучения ИИ. Новости в сети 0
Admin Интересно ИИ-хакеры захватывают сети всего за 29 минут. Новости в сети 0
Admin Интересно Как предотвратить утечку данных через ИИ: вебинар по аудиту современных агентских процессов. Новости в сети 0
Admin Интересно Пакистанские хакеры перешли на массовое производство вредоносного кода с помощью ИИ. Новости в сети 0
Admin Интересно Конец плавящимся дата-центрам: ИИ заставили считать на фотонах и навсегда отменили проблему перегрева серверов. Новости в сети 0
Admin Интересно ИИ помогает продвигать псевдонаучные теории, обходя академические барьеры. Новости в сети 0

Название темы