In estimating the regressioncoefficients β, the ordinary least squares translation - In estimating the regressioncoefficients β, the ordinary least squares Russian how to say

In estimating the regressioncoeffic

In estimating the regressioncoefficients β, the ordinary least squares (OLS) estimator, the most common method, is unbiased.However, it may still have a large mean squared error when the multicollinearity in the designmatrix X causes unstable solutions.Penalized regression methods, such as the ridge (Hoerl and Kennard, 1970), lasso (Tibshirani,1996), elastic net (Zou and Hastie, 2005), and bridge (Frank and Friedman, 1993), have beenproposed to solve the problem. The ridge regression utilizes the L2 penalty and is best usedwhen there are high correlations between predictors. However, it could be influenced by irrelevantvariables since it uses all the predictors in hand. The lasso utilizes the L1 penalty and does both continuous shrinkage and automatic variable selection simultaneously. However, in the presence of multicollinearity, it has empirically been observed that the prediction performance of the lasso is dominated by ridge regression (Tibshirani, 1996). The elastic net attempts to keep the advantages of the ridge and lasso, and overcome their shortcomings by combining the L1 and L2 penalties.In addition, it has a grouping effect, i.e. if there is a set of variables among which the pairwise correlations are high, the elastic net groups the correlated variables together.
0/5000
From: -
To: -
Results (Russian) 1: [Copy]
Copied!
При оценке регрессии <br>коэффициенты р, то обычный метод наименьших квадратов (МНК) оценки, наиболее распространенным методом, является несмещенной. <br>Тем не менее, он все еще может иметь большой средний квадрат ошибки , когда мультиколлинеарности в конструкции <br>матрицы X вызывает неустойчивые решения. <br>Оштрафованных методы регрессии, такие как конька (Hoerl и Kennard, 1970), лассо (Tibshirani, <br>1996), эластичная сетка (Цзоу и Гесте, 2005), и мост (Франк и Фридман, 1993), было <br>предложено решить эту проблему , Хребет регрессия использует штраф L2 и лучше всего использовать , <br>когда существует высокая корреляция между предсказателями. Тем не менее, это может быть в й uenced по значению<br>переменные , поскольку она использует все предикторы в руке. Lasso использует штраф L1 и делает как непрерывное усадку и автоматический выбор переменной одновременно. Тем не менее, при наличии мультиколлинеарности, оно эмпирический было обнаружено , что эффективность предсказания аркана преобладает конек регрессия (Tibshirani, 1996). Эластичные чистые попытки сохранить преимущество хребта и лассо, и преодолеть свои недостатки путем объединения штрафы L1 и L2. <br>Кроме того, он имеет эффект группировку, то есть , если существует множество переменных , среди которых попарные корреляции являются высокими, упругими чистых групп коррелированных переменных вместе.
Being translated, please wait..
Results (Russian) 2:[Copy]
Copied!
При оценке регрессии<br>коэффициенты, обычные наименее квадратисы (OLS) оценщик, наиболее распространенный метод, является беспристрастным.<br>Тем не менее, он все еще может иметь большую среднее ошибка в квадрате, когда многокомпонентность в дизайне<br>матрица X вызывает нестабильные решения.<br>Наказуемые методы регрессии, такие как хребет (Хёрль и Кеннард, 1970), лассо (Тибсирани,<br>1996), эластичная сетка (Зоу и Хасти, 2005), и мост (Frank and Friedman, 1993), были<br>предложил решить эту проблему. Регрессия хребта использует штраф L2 и лучше всего использовать<br>когда существует высокая корреляция между предикторами. Тем не менее, на это может повлиять нерелевантные<br>переменных, так как он использует все предикторов в руке. Лассо использует штраф L1 и делает одновременно непрерывную усадку и автоматический выбор переменных. Однако, в присутствии многокомпонентности, было эмпирически отмечено, что прогноз производительности лассо доминирует регрессия хребта (Tibshirani, 1996). Упругая сеть пытается сохранить преимущества хребта и лассо, и преодолеть свои недостатки, объединив L1 и L2 штрафов.<br>Кроме того, он имеет эффект группировки, т.е. если есть набор переменных, среди которых парные корреляции высоки, эластичные чистые группы коррелированных переменных вместе.
Being translated, please wait..
Results (Russian) 3:[Copy]
Copied!
При оценке регрессии<br>коэффициент бета, общий наименьший квадрат (оол), считается наиболее распространенным методом без отклонения.<br>Однако, когда в проекте есть много коллинеарных, все еще есть большие среднеквадратичные ошибки<br>матрица X вызывает неустойчивое решение.<br>карательные методы регрессии, такие, как горные хребты (Hoerl and Kennard, 1970), петли (Tibshirani,<br>В 1996 году эластичные сети (Zou and Haste, 2005) и Бридж (Frank and Friedman, 1993) были созданы.<br>поднять вопрос.возвращение кряж использует наказание L2, это лучшее использование<br>когда существует большая корреляция между факторами прогнозирования.Однако на него могут влиять не относящиеся к делу факторы<br>переменные, так как они используются для всех прогнозов.в петле используются штрафные очки L1, которые одновременно сокращаются и выбираются автоматическими переменными.Однако при наличии нескольких коллинеарных линий опыт показывает, что прогнозируемые характеристики петли в основном контролируются регрессией горных хребтов (Tibshirani, 1996).эластичная сеть пытается сохранить преимущество хребта и петли и преодолеть их недостатки путем сочетания санкций L1 и L2.<br>Кроме того, она имеет кластерный эффект, заключающийся в том, что в случае существования группы переменных, имеющих высокую корреляцию, эластичная сеть группирует соответствующие переменные.<br>
Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2025 I Love Translation. All reserved.

E-mail: