Admin
Администратор
Нейросети способны решать сложные задачи, но их внутренняя логика остаётся загадкой даже для разработчиков.
Гарвардские физики предложили новый подход к пониманию работы ИИ, используя методы статистической физики.
Исследователи из Гарварда разработали упрощённую математическую модель, которая помогает понять, почему большие нейросети обучаются эффективно и избегают переобучения. Они провели параллель с историей астрономии, где законы движения планет были описаны задолго до понимания их природы. Современные нейросети, как и биологические системы, растут на данных, и их поведение возникает из взаимодействия множества простых элементов. Учёные использовали теорию перенормировки, чтобы объяснить, как случайные флуктуации в многомерных пространствах могут стабилизировать обучение. Этот подход позволяет отделить универсальные свойства обучения от особенностей конкретных архитектур.