Марковскому - перевод на английский язык, синонимы, произношение, примеры предложений, антонимы
Кто-то должен сказать господину Марковскому, чтобы прекратил давать приют здесь всем несчастным. |
Someone should tell Mr. Markovsky to stop taking in all the wretched. |
Условие Больцмана справедливо для всех Марковских процессов, независимо от обратимости во времени. |
Boltzmann's condition holds for all Markov processes, irrespective of time-reversibility. |
Среди учеников Чебышева были Александр Ляпунов, создавший современную теорию устойчивости, и Андрей Марков, создавший марковские цепи. |
Chebyshev's students included Aleksandr Lyapunov, who founded the modern stability theory, and Andrey Markov who invented the Markov chains. |
Марковские цепочки можно использовать для генерации случайных, но в чем-то похожих на человеческие предложений. |
Markov chains can be used to generate random but somewhat human-looking sentences. |
Или, может, чтобы плести интриги против Альберта Марковски в интересах своей компании? |
Or, maybe you wanted to work the politics at your corporation... - by rattling Albert Markovski. |
В дискретно-временных Марковских процессах принятия решений решения принимаются на дискретных временных интервалах. |
In discrete-time Markov Decision Processes, decisions are made at discrete time intervals. |
Статистическая формулировка принципа локальности теперь рассматривается как форма Марковского свойства в широком смысле; ближайшие соседи теперь являются марковскими одеялами. |
The statistical formulation of the principle of locality is now seen to be a form of the Markov property in the broad sense; nearest neighbors are now Markov blankets. |
Позднее прямым методом было доказано увеличение энтропии для всех Марковских процессов. |
Later, entropy increase was proved for all Markov processes by a direct method. |
Принцип детального равновесия используется в марковских цепных методах Монте-Карло с момента их изобретения в 1953 году. |
The principle of detailed balance has been used in Markov chain Monte Carlo methods since their invention in 1953. |
Из-за Марковского предположения вероятность текущего истинного состояния, данного непосредственно предыдущему, условно независима от других более ранних состояний. |
Because of the Markov assumption, the probability of the current true state given the immediately previous one is conditionally independent of the other earlier states. |
В 1993 году Дэвид Хаусслер и его коллеги представили вероятностную интерпретацию профилей с использованием скрытых марковских моделей. |
In 1993, a probabilistic interpretation of profiles was introduced by David Haussler and colleagues using hidden Markov models. |
Сгенерированный текст основан на другом тексте, использующем метод Марковской цепи. |
The generated text is based on another text using the Markov chain technique. |
Эта страница содержит примеры марковских цепей и Марковских процессов в действии. |
This page contains examples of Markov chains and Markov processes in action. |
Существует сильная аналогия между уравнениями фильтра Калмана и уравнениями скрытой марковской модели. |
There is a strong analogy between the equations of the Kalman Filter and those of the hidden Markov model. |
Врач считает, что состояние здоровья его пациентов действует как дискретная Марковская цепочка. |
The doctor believes that the health condition of his patients operates as a discrete Markov chain. |
Однако для марковских процессов принятия решений с непрерывным временем решения могут приниматься в любое время по выбору лица, принимающего решение. |
However, for continuous-time Markov decision processes, decisions can be made at any time the decision maker chooses. |
Марковские процессы принятия решений непрерывного времени находят применение в системах массового обслуживания, эпидемических процессах и процессах народонаселения. |
Continuous-time Markov decision processes have applications in queueing systems, epidemic processes, and population processes. |
Марковские цепи - это математический метод определения вероятности состояния или события на основе предыдущего состояния или события. |
Markov Chains are a mathematical technique for determine the probability of a state or event based on a previous state or event. |
Конечная машина может быть использована в качестве представления Марковской цепи. |
A finite-state machine can be used as a representation of a Markov chain. |
Этот метод выравнивания последовательностей часто используется в контексте скрытых марковских моделей. |
This sequence alignment method is often used in the context of hidden Markov models. |
Он использует “скрытые состояния” подобно скрытым марковским моделям (Hidden Markov Models, HHM), но в отличие от них он линеен. |
It makes use of hidden states much like Hidden Markov Models (HHM), but unlike HHM, Kalman filter is faithfully linear. |
Dril-это экстрасенсорная Марковская цепочка, вход в которую - американский интернет. |
Dril is a psychic Markov chain whose input is the American internet. |
X является Байесовской сетью относительно G, если каждый узел условно независим от всех других узлов сети, учитывая ее Марковское одеяло. |
X is a Bayesian network with respect to G if every node is conditionally independent of all other nodes in the network, given its Markov blanket. |
Метод Марковской цепи - это один из методов, который был использован для генерации текстов с помощью алгоритма и методов рандомизации, которые кажутся значимыми. |
The Markov chain technique is one method which has been used to generate texts by algorithm and randomizing techniques that seem meaningful. |
HMM-based synthesis - это метод синтеза, основанный на скрытых марковских моделях, также называемый статистическим параметрическим синтезом. |
HMM-based synthesis is a synthesis method based on hidden Markov models, also called Statistical Parametric Synthesis. |
В случае дискретных состояний можно достичь чего-то подобного, разбив марковские состояния на вырожденные подобласти соответствующего размера. |
In the case of discrete states, it may be possible to achieve something similar by breaking the Markov states into appropriately-sized degenerate sub-states. |
One moves ahead, Markovsky, one always moves ahead. |
|
Эти инструменты включают такие модели, как Марковские процессы принятия решений, динамические сети принятия решений, теория игр и проектирование механизмов. |
These tools include models such as Markov decision processes, dynamic decision networks, game theory and mechanism design. |
В конце 1960-х годов Леонард Баум разработал математику марковских цепей в Институте оборонного анализа. |
During the late 1960s Leonard Baum developed the mathematics of Markov chains at the Institute for Defense Analysis. |
Марковское одеяло узла - это множество узлов, состоящее из его родителей, его детей и любых других родителей его детей. |
The Markov blanket of a node is the set of nodes consisting of its parents, its children, and any other parents of its children. |
Именно здесь метод Брилла отличается от других методов тегирования частей речи, таких как использование скрытых марковских моделей. |
This is where the Brill method differs from other part of speech tagging methods such as those using Hidden Markov Models. |
Мистер Марковски, к нам часто приходят люди, которые хотят узнать сокровенную правду жизни. |
Mr. Markovski, we see a lot of people in here... who claim they want to know the ultimate truth about reality. |
Процесс, описанный здесь, является аппроксимацией процесса точки Пуассона – Пуассоновские процессы также являются марковскими процессами. |
The process described here is an approximation of a Poisson point process – Poisson processes are also Markov processes. |
Что, Марковский, чего не хватает на этот раз? |
So Markovsky, what are you short of this time? |
Речь можно рассматривать как Марковскую модель для многих стохастических целей. |
Speech can be thought of as a Markov model for many stochastic purposes. |
Современные универсальные системы распознавания речи основаны на скрытых марковских моделях. |
Modern general-purpose speech recognition systems are based on Hidden Markov Models. |
Другая формулировка многорукого бандита имеет каждую руку, представляющую собой независимую Марковскую машину. |
Another formulation of the multi-armed bandit has each arm representing an independent Markov machine. |
Они моделируются на основе Марковской цепи, построенной на линейных операторах, возмущенных ошибками, которые могут включать гауссов шум. |
They are modeled on a Markov chain built on linear operators perturbed by errors that may include Gaussian noise. |
- анализ марковской - markov analysis
- андрей марковской - andrei markov