where f (r,u) and f (r, t) correspond to the co-occurrence counts betw translation - where f (r,u) and f (r, t) correspond to the co-occurrence counts betw Thai how to say

where f (r,u) and f (r, t) correspo

where f (r,u) and f (r, t) correspond to the co-occurrence counts between resources and users, and resources and tags respectively. Here ? is a predefined weight balancing the influence of each model. The usual Expectation-Maximization (EM) algorithm is then applied for performing maximum likelihood estimation for the model. Resources for a given user u are then weighted by the probability P(r|u) (see Eq. 19.7), ranked, and the top ranked resources are finally recommended. For recommending users, one can either recommend a neighborhood based on ?UTY or ?URY. In order to recommend a neighborhood that takes into account the three modes of the folksonomy, one could, for example, either use the matrix extensions proposed by [37] (see Figure 19.7) or compute a linear combination of the user similarities based on the user-resource and user-tag projection matrices.

Remarks on Complexity CF usually suffers from scalability problems, given that the whole input matrix needs to be kept in memory. In STS, one may have to eventually keep more than one matrix in memory, depending on which kind of projections one wants to operate upon. To compute recommendations we usually need three steps:
1. Computation of projections: In order to compose the projections, we need to determine the (u, r), (u, t) and/or (r, t) co-occurrences. For that, we just need to do a linear scan in Y.
2. Neighborhood computation: In traditional user-based CF algorithms, the computation of the neighborhood Nu is usually linear on the number of users as one needs to compute the similarity of a given test user with all the other users in the database. In addition, we need to sort the similarities in order to determine the k-nearest neighbors.
3. Recommendations: For predicting the top-n tag/resource recommendations for a given test user, we need to: (i) count the tags/resources co-occurrences with the nearest neighbors Nu, (ii) weight each co-occurrence by the corresponding

19.4.2 Recommendation based on Ranking
where ?U ? R|U|ืkU , ? T ? R|T|ืkT , ?R ? R|R|ืkR are low-rank feature matrices representing an entity, i.e., user, resources, and tags resp., in terms of its small number of latent dimensions kU, kR, kT , and ?C ? RkUืkRืkT is a tensor representing interactions between the latent factors called core tensor. The symbol ืi denotes the i-mode multiplication between a tensor and a matrix. The model parameters to be learned are then the quadruple ?? :=(?C , ?U , ?R, ? T). This decomposition refers to a general factorization model known as Tucker decomposition [18]. After the parameters are learned, predictions can be done as follows: The factorization of A is expressed as follows (see Figure 19.8):
0/5000
From: -
To: -
Results (Thai) 1: [Copy]
Copied!
ซึ่ง f (r, u) และ f (r, t) สอดคล้องกับเหตุการณ์ร่วมไว้ระหว่างทรัพยากร และผู้ ใช้ และทรัพยากร และแท็กตามลำดับ ที่นี่ มีน้ำหนักล่วงหน้าสมดุลอิทธิพลของแต่ละรุ่น อัลกอริทึม Maximization ความคาดหวัง (EM) ปกติใช้สำหรับการดำเนินการประเมินความเป็นไปได้สูงสุดสำหรับรูปแบบแล้ว ทรัพยากรสำหรับผู้ใช้กำหนดคุณแล้วถ่วงน้ำหนักตามความน่าเป็น P(r|u) (ดู Eq. 19.7), จัดอันดับ และทรัพยากรในการจัดอันดับด้านบนก็แนะนำ สำหรับแนะนำผู้ใช้ หนึ่งอาจสามารถแนะนำย่านตาม UTY หรือ URY เพื่อแนะนำย่านที่จะพิจารณาในสามโหมดของโฟล์กโซโนมี หนึ่งสามารถ เช่น ใช้ส่วนขยายของเมตริกซ์ที่เสนอ โดย [37] (ดูรูปที่ 19.7) หรือคำนวณการรวมเชิงเส้นของความเหมือนผู้ที่ตามเมทริกซ์ฉายผู้ใช้ทรัพยากรและผู้ใช้แท็กได้ หมายเหตุใน CF ความซับซ้อนมักจะ suffers จากปัญหาภาระ ที่ทั้งหมดป้อนเมทริกซ์ต้องถูกเก็บไว้ในหน่วยความจำ ใน STS หนึ่งอาจต้องเก็บเมตริกซ์หนึ่งในหน่วยความจำ ขึ้นอยู่กับชนิดของประมาณหนึ่งอยากมีเมื่อในที่สุด การคำนวณคำแนะนำที่เรามักจะจำเป็นสามขั้นตอน:1. คำนวณประมาณ: เขียนประมาณนี้ เราต้องกำหนดแบบ (u, r), (u, t) / (r, t) เกิดร่วม ที่ เราเพียงแค่ทำการสแกนแบบเชิงเส้นใน Y2. ย่านคำนวณ: ในแบบดั้งเดิมโดยผู้ใช้ CF อัลกอริทึม การคำนวณย่านนูเป็นเส้นปกติจำนวนผู้ใช้ต้องคำนวณเฉพาะผู้ทดสอบให้กับทั้งหมดที่ผู้ใช้อื่นในฐานข้อมูล นอกจากนี้ เราต้องเรียงลำดับที่ความเหมือนเพื่อกำหนด k ใกล้บ้าน3. คำแนะนำ: สำหรับคำแนะนำด้านบน n แท็ก/ทรัพยากรสำหรับผู้ทดสอบกำหนดคาดการณ์ เราจำเป็นต้อง: (i) นับป้าย/ทรัพยากรร่วมกับเพื่อนบ้านที่ใกล้ที่สุด Nu (ii) แต่ละเหตุการณ์ร่วมน้ำหนัก โดยให้สอดคล้องกับ 19.4.2 แนะนำตามการจัดอันดับที่หรือไม่ U R| U|ืkU, T R| T|ืkT, R R| R|ืkR มีเมทริกซ์ต่ำอันดับคุณลักษณะแสดงถึงเอนทิตี เช่น ผู้ใช้ ทรัพยากร และแท็กความรับผิด ชอบ ในแง่ของขนาดเล็กจำนวนมิติแฝงอยู่กู่ kR, kT และ C RkUืkRืkT คือ tensor แทนกันระหว่างปัจจัยแฝงอยู่ที่เรียกว่า tensor หลัก ืi สัญลักษณ์แสดงการคูณ i-โหมดระหว่างการ tensor และเมทริกซ์ พารามิเตอร์แบบจำลองให้สามารถเรียนรู้ได้แล้วห้องควอด?? :=(? C , ? U , ? R, T) การแยกส่วนประกอบนี้หมายถึงแบบการแยกตัวประกอบทั่วไปที่เรียกว่าทักเกอร์แยกส่วนประกอบ [18] หลังจากพารามิเตอร์จะเรียนรู้ คาดคะเนสามารถทำได้ดังนี้: การแยกตัวประกอบของ A จะแสดงได้ดังนี้ (ดูรูปที่ 19.8):
Being translated, please wait..
Results (Thai) 2:[Copy]
Copied!
ที่ f (R, มึง) และ f (R, t) สอดคล้องกับจำนวนผู้ร่วมเกิดขึ้นระหว่างทรัพยากรและผู้ใช้และทรัพยากรและแท็กตามลำดับ ที่นี่? เป็นน้ำหนักที่กำหนดไว้ล่วงหน้าสมดุลอิทธิพลของแต่ละรุ่น ปกติที่คาดว่า-ปรับปรุงสูงสุด (EM) อัลกอริทึมที่ใช้แล้วสำหรับการดำเนินการประมาณค่าความน่าจะเป็นสูงสุดสำหรับรูปแบบ ทรัพยากรสำหรับผู้ใช้ที่ระบุยูมีน้ำหนักแล้วโดยน่าจะเป็น P (R | ยู) (. เห็นสม 19.7) การจัดอันดับและทรัพยากรการจัดอันดับด้านบนในที่สุดก็มีการแนะนำ แนะนำสำหรับผู้ใช้หนึ่งสามารถแนะนำพื้นที่ใกล้เคียงอยู่บนพื้นฐานของ? UTY หรือ? URY เพื่อที่จะแนะนำพื้นที่ใกล้เคียงที่คำนึงถึงสามรูปแบบของ folksonomy ใครจะยกตัวอย่างเช่นอาจใช้นามสกุลเมทริกซ์ที่เสนอโดย [37] (ดูรูปที่ 19.7) หรือคำนวณรวมกันเชิงเส้นของความคล้ายคลึงกันของผู้ใช้บนพื้นฐานของ ใช้ทรัพยากรและการใช้แท็กการฝึกอบรมการฉาย. ข้อสังเกตเกี่ยวกับความซับซ้อน CF มักจะทนทุกข์ทรมานจากปัญหาความยืดหยุ่นให้ที่อินพุทเมทริกซ์ทั้งต้องเก็บไว้ในหน่วยความจำ ในเอสทีหนึ่งอาจจะต้องในที่สุดก็ให้มากกว่าหนึ่งเมทริกซ์ในหน่วยความจำซึ่งขึ้นอยู่กับชนิดของประมาณการใครต้องการที่จะดำเนินการตาม คำแนะนำในการคำนวณเรามักจะต้องสามขั้นตอน: 1 คำนวณประมาณการ: เพื่อประกอบการคาดการณ์ที่เราจำเป็นต้องตรวจสอบ (U, R) (มึง t) และ / หรือ (R, t) ที่เกิดขึ้นร่วมกัน เพื่อที่เราเพียงแค่ต้องทำสแกนเชิงเส้นในวาย2 พื้นที่ใกล้เคียงการคำนวณในการใช้งานตามขั้นตอนวิธีการแบบดั้งเดิม CF, คำนวณย่านนูมักจะเป็นเส้นตรงกับจำนวนผู้ใช้เป็นหนึ่งในความต้องการที่จะคำนวณความคล้ายคลึงกันของผู้ใช้ทดสอบให้กับผู้ใช้อื่น ๆ ในฐานข้อมูล นอกจากนี้เราจำเป็นต้องเรียงลำดับความคล้ายคลึงกันเพื่อตรวจสอบเพื่อนบ้านใกล้ที่สุด k. 3 คำแนะนำ: สำหรับการคาดการณ์แท็กบน n / คำแนะนำทรัพยากรสำหรับผู้ใช้ทดสอบให้เราต้อง: (i) นับแท็ก / ทรัพยากรที่เกิดขึ้นร่วมกับเพื่อนบ้านที่ใกล้ที่สุด Nu (ii) น้ำหนักแต่ละร่วมเกิดขึ้นโดยที่สอดคล้องกัน19.4.2 คำแนะนำขึ้นอยู่กับการจัดอันดับที่? U? R | U | ื ku,? T? R | T |? ืโฮเทล, R? R | R | ื KR มียศต่ำเมทริกซ์คุณลักษณะที่เป็นตัวแทนของนิติบุคคลคือใช้ทรัพยากรและแท็กรับผิดชอบในแง่ของจำนวนเล็ก ๆ ของมิติที่แฝง ku, KR, โฮเทล, และ C.? RkU ืื KR โฮเทลเป็นเมตริกซ์ที่เป็นตัวแทนของการมีปฏิสัมพันธ์ระหว่างปัจจัยแฝงที่เรียกว่าเทนเซอร์หลัก สัญลักษณ์ืฉันหมายถึงฉันคูณโหมดระหว่างเมตริกซ์และเมทริกซ์ พารามิเตอร์แบบที่จะเรียนรู้แล้วโอที ?? : (?? C, U, R, T) = การสลายตัวนี้หมายถึงรูปแบบตัวประกอบทั่วไปที่รู้จักกันในการสลายตัวทักเคอร์ [18] หลังจากพารามิเตอร์ที่จะเรียนรู้การคาดการณ์ที่สามารถทำได้ดังนี้ตัวประกอบของจะแสดงดังต่อไปนี้ (ดูรูปที่ 19.8)







Being translated, please wait..
Results (Thai) 3:[Copy]
Copied!
โดยที่ f ( r , u ) f ( R , T ) สอดคล้องกับการนับระหว่างทรัพยากรและผู้ใช้ และทรัพยากร และแท็ก ตามลำดับ ที่นี่ คือ กำหนดน้ำหนักความสมดุลอิทธิพลของนางแบบแต่ละคน มีความคาดหวังปกติ ( เอ็ม ) โดยจะใช้สำหรับการประมาณความน่าจะเป็นสูงสุดสำหรับรูปแบบทรัพยากรสำหรับให้ผู้ใช้ u จะถ่วงน้ำหนักโดยความน่าจะเป็น P ( r | u ) ( เห็นอีคิว 19.7 ) , การจัดอันดับและอันดับแหล่งสุดท้ายที่แนะนำ เพื่อแนะนำผู้ใช้หนึ่งสามารถแนะนำเพื่อนบ้านตาม ? นะหรือ ? ยูรี่ . เพื่อที่จะแนะนำคนที่จะพิจารณาสามโหมดของโฟล์คโซโนมี หนึ่งได้ตัวอย่างเช่นให้ใช้นามสกุลเสนอโดยเมทริกซ์ [ 37 ] ( ดูรูปที่ 19.7 ) หรือคำนวณการรวมกันเชิงเส้นของผู้ใช้เหมือนกันขึ้นอยู่กับผู้ใช้ทรัพยากรและแท็กผู้ใช้เมทริกซ์ฉาย

ความเห็นที่ซับซ้อนมักจะทนทุกข์ทรมานจากปัญหาการทำงานโฆษณาให้ที่เมทริกซ์อินพุตทั้งหมดต้องถูกเก็บไว้ในความทรงจำ ในระบบหนึ่งอาจมีมากกว่าหนึ่งเมทริกซ์ในที่สุดเก็บในหน่วยความจำซึ่งขึ้นอยู่กับชนิดของแผนหนึ่งต้องการที่จะทำงานบน เพื่อหาข้อเสนอแนะ เรามักจะต้องการสามขั้นตอน :
1 การคำนวณประมาณการ : เพื่อสร้างประมาณการ เราต้องตรวจสอบ ( U , r ) ( U , t ) และ / หรือ ( R , T ) ร่วมเหตุการณ์ . ที่เราต้องทำเส้นสแกน y
2 การคำนวณในแบบดั้งเดิมที่ใช้ขั้นตอนวิธีการเพื่อนบ้านผู้ใช้โฆษณาการคำนวณของบ้านนู๋ มักจะเป็นเชิงเส้นบนหมายเลขของผู้ใช้เป็นหนึ่งต้องการคำนวณ ความเหมือนของแบบให้ผู้ใช้กับผู้ใช้ทุกคนอื่น ๆในฐานข้อมูล นอกจากนี้ เราต้องเรียงกันเพื่อตรวจสอบเพื่อนบ้านละ .
3 คำแนะนำ : ใช้ top-n แท็ก / ทรัพยากรที่แนะนำให้ผู้ใช้ทดสอบ เราต้องไปที่ :( ผม ) นับแท็ก / ทรัพยากรร่วมเกิดกับเพื่อนบ้านที่ใกล้ที่สุดตอนนี้ ( 2 ) น้ำหนักแต่ละการโดยตรงกัน

19.4.2 แนะนำตามการจัดอันดับ
ที่ไหน ? u r | u | ืกู ? T ? r | T | ื KT ? R ? r | R | ื KR ต่ำอันดับคุณลักษณะเมทริกซ์เป็นนิติบุคคล เช่น ผู้ใช้ ทรัพยากร และแท็ก resp . ในแง่ของจำนวนเล็ก ๆของแฝงมิติกู่ , KR , KT , และ ? Crku ื KR ื KT เป็นเมตริกซ์ของปฏิสัมพันธ์ระหว่างปัจจัยแฝงที่เรียกว่าหลักเมตริกซ์ . สัญลักษณ์ืผมหมายถึงการไอ โหมดการคูณระหว่างเมตริกซ์และเมทริกซ์ รูปแบบพารามิเตอร์ที่จะเรียนมีแล้วสามเท่า ? ? : = ( ? C , ? U , ? R , ? t ) การย่อยสลายนี้หมายถึงรูปแบบการแยกตัวประกอบทั่วไปเรียกว่าทัคเกอร์การสลายตัว [ 18 ] หลังจากค่าเรียนคาดคะเนสามารถทำได้ดังนี้ : การแยกตัวประกอบของจะแสดงดังนี้ ( ดูรูปที่ 19.8 )
Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2024 I Love Translation. All reserved.

E-mail: