DictionaryForumContacts

   Russian
Terms for subject Artificial intelligence containing оптимизация | all forms | exact matches only
RussianEnglish
алгоритм оптимизации "Адам"Adam optimizer (an algorithm for first-order gradient-based optimization of stochastic objective functions, based on adaptive estimates of lower-order moments, intended to train artificial neural networks arxiv.org Alex_Odeychuk)
алгоритм оптимизации подражанием муравьиной колонииant colony optimization (Alex_Odeychuk)
задача многокритериальной оптимизацииmulti-objective optimization problem (Alex_Odeychuk)
метод стохастической оптимизацииmethod for stochastic optimization (Alex_Odeychuk)
модуль оптимизации плановplan optimization module (интеллектуальных агентов Alex_Odeychuk)
оптимизация в ограниченияхconstraint optimization (Alex_Odeychuk)
оптимизация методом квантового роя частицquantum-inspired particle swarm optimization (Alex_Odeychuk)
оптимизация нулевого порядкаzeroth-order optimization (Alex_Odeychuk)
оптимизация нулевого порядка на основе автокодировщикаautoencoder-based zeroth-order optimization (Alex_Odeychuk)
оптимизация подражанием бактериальной колонииBCO (сокр. от "bacterial colony optimization" Alex_Odeychuk)
оптимизация подражанием бактериальной колонииbacterial colony optimization (Alex_Odeychuk)
оптимизация подражанием муравьиной колонииACO (сокр. от "ant colony optimization" Alex_Odeychuk)
оптимизация управляющих воздействийcontrol optimization (из кн.: Бровкова М.Б. Системы искусственного интеллекта в машиностроении Alex_Odeychuk)
распределённая оптимизация в ограниченияхdistributed constraint optimization (Alex_Odeychuk)
стохастическая градиентная оптимизацияstochastic gradient optimization (Исследования показали, что гиперпараметризация, или реализация нейронных сетей с числом параметров, превышающим количество доступных точек обучающих данных, приносит значительные преимущества. Методы стохастической градиентной оптимизации предотвращают переобучение нейронных сетей благодаря регуляризующему эффекту, который достигается за счёт ранней остановки, которая позволяет нейронным сетям переходить в режим интерполяции, когда обучающие данные подходят почти точно, при этом сохраняя адекватные прогнозы по промежуточным точкам. Примером крупномасштабной сети с гиперпараметризацией является одна из передовых систем распознавания образов – NoisyStudent, которая имеет 480 млн параметров для 1,2 млн точек данных ImageNet. — Research indicates that hyperparameterization — implementing neural networks with more parameters than the available training data points — offers substantial advantages. Stochastic gradient optimization techniques counteract overlearning by leveraging the regularizing power of early stopping, switching neural networks into an interpolation mode, where they align closely with the training data, yet still produce reliable predictions for intermediate values. A prime example of this is the state-of-the-art image recognition system, NoisyStudent, which boasts 480 million parameters, fine-tuned using just 1.2 million ImageNet data points. Alex_Odeychuk)