In estimating the regressioncoefficients β, the ordinary least squares translation - In estimating the regressioncoefficients β, the ordinary least squares Russian how to say

In estimating the regressioncoeffic

In estimating the regressioncoefficients β, the ordinary least squares (OLS) estimator, the most common method, is unbiased.However, it may still have a large mean squared error when the multicollinearity in the designmatrix X causes unstable solutions.Penalized regression methods, such as the ridge (Hoerl and Kennard, 1970), lasso (Tibshirani,1996), elastic net (Zou and Hastie, 2005), and bridge (Frank and Friedman, 1993), have beenproposed to solve the problem. The ridge regression utilizes the L2 penalty and is best usedwhen there are high correlations between predictors. However, it could be influenced by irrelevantvariables since it uses all the predictors in hand. The lasso utilizes the L1 penalty and does bothcontinuous shrinkage and automatic variable selection simultaneously. However, in the presence ofmulticollinearity, it has empirically been observed that the prediction performance of the lasso isdominated by ridge regression (Tibshirani, 1996). The elastic net attempts to keep the advantagesof the ridge and lasso, and overcome their shortcomings by combining the L1 and L2 penalties.In addition, it has a grouping effect, i.e. if there is a set of variables among which the pairwisecorrelations are high, the elastic net groups the correlated variables together.Bridge regression (Frank and Friedman, 1993; Fu, 1998; Knight and Fu, 2000; Liu et al., 2007;Huang et al., 2008) utilizes the Lq (q > 0) penalty and thus it includes the ridge (q = 2) and lasso (q = 1) as special cases. It is known that if 0 < q 6 1, bridge estimators produce sparse models. Due to the general Lq penalty form, bridge regression naturally fits any situation where it needsvariable selection or there exists multicollinearity.
0/5000
From: -
To: -
Results (Russian) 1: [Copy]
Copied!
При оценке регрессии <br>коэффициенты р, то обычный метод наименьших квадратов (МНК) оценки, наиболее распространенным методом, является несмещенной. <br>Тем не менее, он все еще может иметь большой средний квадрат ошибки , когда мультиколлинеарности в конструкции <br>матрицы X вызывает неустойчивые решения. <br>Оштрафованных методы регрессии, такие как конька (Hoerl и Kennard, 1970), лассо (Tibshirani, <br>1996), эластичная сетка (Цзоу и Гесте, 2005), и мост (Франк и Фридман, 1993), было <br>предложено решить эту проблему , Хребет регрессия использует штраф L2 и лучше всего использовать , <br>когда существует высокая корреляция между предсказателями. Тем не менее, это может быть в й uenced от несущественных <br>переменных , так как он использует все предикторы в руке. Лассо используют неустойку L1 и делают как<br>непрерывная усадка и автоматический выбор переменного одновременно. Тем не менее, при наличии <br>мультиколлинеарности, оно эмпирический было обнаружено , что эффективность предсказания Лассо <br>преобладает конек регрессия (Tibshirani, 1996). Эластичные чистые попытки сохранить преимущество <br>хребта и лассо, и преодолеть свои недостатки путем объединения штрафы L1 и L2. <br>Кроме того, она имеет группировку е и далее т.д., то есть , если существует множество переменных , среди которых попарных <br>корреляции являются высокими, упругими чистыми группами коррелированного переменными вместе. <br>Мост регрессии (Frank и Фридман, 1993; Fu, 1998, рыцарь и Fu, 2000; Liu и др . , 2007;<br>Хуанг и др., 2008) использует (Q> 0) штраф Lq и , таким образом , она включает в себя хребет (д = 2) и Lasso (д = 1) в качестве особых случаев. Известно , что если 0 <д 6 1, мостовые оценки производят редкие модели. Благодаря общей форме Lq штрафной, мост регрессия естественно фи т.с. любой ситуации , в которой она нуждается в <br>переменном выборе или там существует мультиколлинеарность.
Being translated, please wait..
Results (Russian) 2:[Copy]
Copied!
При оценке регрессии<br>коэффициенты, обычные наименее квадратисы (OLS) оценщик, наиболее распространенный метод, является беспристрастным.<br>Тем не менее, он все еще может иметь большую среднее ошибка в квадрате, когда многокомпонентность в дизайне<br>матрица X вызывает нестабильные решения.<br>Наказуемые методы регрессии, такие как хребет (Хёрль и Кеннард, 1970), лассо (Тибсирани,<br>1996), эластичная сетка (Зоу и Хасти, 2005), и мост (Frank and Friedman, 1993), были<br>предложил решить эту проблему. Регрессия хребта использует штраф L2 и лучше всего использовать<br>когда существует высокая корреляция между предикторами. Тем не менее, на это может повлиять нерелевантные<br>переменных, так как он использует все предикторов в руке. Лассо использует штраф L1 и делает оба<br>непрерывное усадка и автоматический выбор переменных одновременно. Однако при наличии<br>мультиколлинерность, он эмпирически было отмечено, что прогноз производительности лассо<br>регрессии хребта (Tibshirani, 1996). Упругая сеть пытается сохранить преимущества<br>хребта и лассо, и преодолеть свои недостатки, объединив L1 и L2 штрафов.<br>Кроме того, он имеет эффект группировки, т.е. если есть набор переменных, среди которых парные<br>корреляции высоки, эластичные чистые группы коррелированных переменных вместе.<br>Регрессия моста (Франк и Фридман, 1993; Фу, 1998; Рыцарь и Фу, 2000; Лю и др., 2007;<br>Хуан и др., 2008) использует штраф Lq (q q q 0) и, таким образом, включает в себя хребет (q q no 2) и лассо (q q q 1) в качестве специальных случаев. Известно, что если 0 q q 6 1, то оценщики моста производят редкие модели. Из-за общей формы штрафа Lq, регрессия моста естественно приспосабливает любую ситуацию где она нуждается<br>переменного выбора или существует многокомпонентность.
Being translated, please wait..
Results (Russian) 3:[Copy]
Copied!
При оценке регрессии<br>коэффициент бета, общий наименьший квадрат (оол), считается наиболее распространенным методом без отклонения.<br>Однако, когда в проекте есть много коллинеарных, все еще есть большие среднеквадратичные ошибки<br>матрица X вызывает неустойчивое решение.<br>карательные методы регрессии, такие, как горные хребты (Hoerl and Kennard, 1970), петли (Tibshirani,<br>В 1996 году эластичные сети (Zou and Haste, 2005) и Бридж (Frank and Friedman, 1993) были созданы.<br>поднять вопрос.возвращение кряж использует наказание L2, это лучшее использование<br>когда существует большая корреляция между факторами прогнозирования.Однако на него могут влиять не относящиеся к делу факторы<br>переменные, так как они используются для всех прогнозов.в стропе используется пенальти L1, и то и другое<br>непрерывное сокращение и автоматическое выделение переменных одновременно.Однако, в<br>мультиколлинеарная, эмпирически наблюдаемая прогнозируемая характеристика петли<br>преобладает процесс регрессии на горных хребтах (Tibshirani, 1996).эластичная сеть пытается сохранить преимущество<br>и устранить их недостатки путем сочетания санкций L1 и L2.<br>Кроме того, она имеет эффект группирования, т.е. если существует группа переменных, то есть пара переменных<br>высокая корреляция, эластичные сети объединяют соответствующие переменные.<br>возвращение мостов (Frank and Friedman, 1993; Fu, 1998; Knight and Fu, 2000; Liu et al., 2007;<br>Huang et al., 2008) применяли наказание Lq (q > 0), поэтому оно включает в себя в качестве исключения хребет (q = 2) и петлю (q = 1).известно, что при 0 < q 6 1 мост производит модель разрежения.из - за общей формы наказания Lq возвращение моста естественным образом относится к любой необходимой ситуации<br>переменная выбирает или существует несколько общих линейных.<br>
Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2024 I Love Translation. All reserved.

E-mail: