Now we compute the real center of each cluster. These form the new pos translation - Now we compute the real center of each cluster. These form the new pos Thai how to say

Now we compute the real center of e

Now we compute the real center of each cluster. These form the new positions of the two centroids. The centroids in Fig. 3.6(b) are based on the clusters shown in Fig. 3.6(a). In Fig. 3.6(b), we again assign all instances to the centroid that is closest. This results in the two new clusters shown in Fig. 3.6(b). All instances with an open dot are assigned to one centroid whereas all the instances with a closed dot are assigned to the other one. Now we compute the real centers of these two new clusters. This results in a relocation of the centroids as shown in Fig. 3.6(c). Again we assign the instances to the centroid that is closest. However, now nothing changes and the location of the centroids remains the same. After converging the k-means algorithm outputs, the two clusters and related statistics.
The quality of a particular clustering can be defined as the average distance from an instance to its corresponding centroid. k-means clustering is only a heuristic and does not guarantee that it finds the k clusters that minimize the average distance from an instance to its corresponding centroid. In fact, the result depends on the initialization. Therefore, it is good to repeatedly execute the algorithm with different initializations and select the best one.
There are many variants of the algorithm just described. However, we refer to standard literature for details [5, 15, 52, 67, 129]. One of the problems when using the k-means algorithm is determining the number of clusters k. For k-means this is fixed from the beginning. Note that the average distance from an instance to its corresponding centroid decreases as k is increased. In the extreme case every instance has its own cluster and the average distance from an instance to its corresponding centroid is zero. This is not very useful. Therefore, a frequently used approach is to start with a small number of clusters and then gradually increase k as long as there are significant improvements.
Another popular clustering technique is Agglomerative Hierarchical Clustering (AHC). Here, a variable number of clusters is generated. Figure 3.7 illustrates the idea. The approach works as follows. Assign each instance to a dedicated singleton cluster. Now search for the two clusters that are closest to one another. Merge these two clusters into a new cluster. For example, the initial clusters consisting of just a and just b are merged into a new cluster ab. Now search again for the two clusters
0/5000
From: -
To: -
Results (Thai) 1: [Copy]
Copied!
ตอนนี้ เราคำนวณตัวจริงของแต่ละคลัสเตอร์ ตำแหน่งใหม่ของ centroids สองฟอร์มเหล่านี้ Centroids ใน Fig. 3.6(b) อยู่ในคลัสเตอร์ที่แสดงใน Fig. 3.6(a) Fig. 3.6(b) เราอีกกำหนดอินสแตนซ์ทั้งหมดกับเซนทรอยด์ที่ใกล้เคียงที่สุด ซึ่งผลที่แสดงใน Fig. 3.6(b) คลัสเตอร์ใหม่สอง อินสแตนซ์ทั้งหมดที่ มีการเปิดจุดจะกำหนดให้กับเซนทรอยด์หนึ่งในขณะที่อินสแตนซ์ทั้งหมด มีจุดปิดให้อีกหนึ่ง ตอนนี้ เราคำนวณศูนย์จริงของคลัสเตอร์ใหม่เหล่านี้สอง ซึ่งผลในการย้าย centroids มาก Fig. 3.6(c) อีกครั้ง เรากำหนดอินสแตนซ์กับเซนทรอยด์ที่ใกล้เคียงที่สุด อย่างไรก็ตาม ตอนนี้ไม่มีอะไรเปลี่ยนแปลง และที่ตั้งของ centroids ยังคงเหมือนเดิม หลังจากบรรจบ k-หมายถึง อัลกอริทึมแสดง ผล คลัสเตอร์สอง และสถิติที่เกี่ยวข้องสามารถกำหนดคุณภาพของคลัสเตอร์เฉพาะเป็นระยะเฉลี่ยจากอินสแตนซ์ของเซนทรอยด์ที่สอดคล้องกัน k-หมายถึงคลัสเตอร์เป็นแบบ heuristic และรับประกันว่า พบคลัสเตอร์ k ที่ลดระยะห่างเฉลี่ยจากอินสแตนซ์กับเซนทรอยด์ของที่สอดคล้องกัน ในความเป็นจริง ผลขึ้นอยู่กับการเริ่มต้น จึง มันเป็นดีซ้ำ ๆ เรียกใช้อัลกอริทึมกับ initializations แตกต่างกัน และเลือกดีที่สุดมีหลายตัวแปรของอัลกอริทึมที่อธิบายเพียง อย่างไรก็ตาม เราอ้างถึงวรรณกรรมมาตรฐานรายละเอียด [5, 15, 52, 67, 129] ปัญหาเมื่อใช้อัลกอริทึม k หมายถึงอย่างใดอย่างหนึ่งคือการกำหนดหมายเลขของคลัสเตอร์ k สำหรับ k- นี้เป็นถาวรต่อไป หมายเหตุที่ระยะห่างเฉลี่ยจากอินสแตนซ์กับเซนทรอยด์ของตรงลดเป็น k จะเพิ่ม ในกรณีมาก ละมีคลัสเตอร์ของตนเอง และระยะเฉลี่ยจากอินสแตนซ์ของเซนทรอยด์ที่สอดคล้องกันเป็นศูนย์ นี้ไม่ได้มีประโยชน์มาก ดังนั้น วิธีการที่ใช้บ่อยคือการ เริ่มต้น มีจำนวนเล็ก ๆ ของคลัสเตอร์ และจากนั้น ค่อย ๆ เพิ่ม k ตราบใดที่มีการปรับปรุงที่สำคัญเทคนิคระบบคลัสเตอร์อื่นนิยมการ Agglomerative ลำดับคลัสเตอร์ (AHC) ที่นี่ หมายเลขตัวแปรของคลัสเตอร์จะถูกสร้างขึ้น รูปที่ 3.7 แสดงความคิด วิธีการทำงานดังนี้ กำหนดแต่ละอินสแตนซ์คลัสเตอร์เดี่ยวเฉพาะ ขณะนี้ ค้นหาคลัสเตอร์สองเขตอื่น คลัสเตอร์เหล่านี้สองผสานคลัสเตอร์ใหม่ ตัวอย่าง การคลัสเตอร์เริ่มต้นประกอบด้วยห้องพัก และ b เพียงถูกผสานเป็น ab คลัสเตอร์ใหม่ ขณะนี้ ค้นหาอีกครั้งสำหรับคลัสเตอร์สอง
Being translated, please wait..
Results (Thai) 2:[Copy]
Copied!
ตอนนี้เราคำนวณศูนย์ที่แท้จริงของแต่ละกลุ่ม รูปแบบเหล่านี้ตำแหน่งใหม่ของทั้งสอง centroids centroids ในรูป 3.6 (ข) จะขึ้นอยู่กับกลุ่มที่แสดงในรูป 3.6 (ก) ในรูป 3.6 (ข) เราอีกครั้งกำหนดทุกกรณีเพื่อเซนทรอยด์ที่ใกล้เคียง ซึ่งจะส่งผลในสองกลุ่มใหม่ที่แสดงในรูป 3.6 (ข) ทุกกรณีที่มีการเปิดจุดที่ได้รับมอบหมายให้เป็นหนึ่งในเซนทรอยด์ในขณะที่ทุกกรณีที่มีจุดปิดที่ได้รับมอบหมายไปยังอีกที่หนึ่ง ตอนนี้เราคำนวณศูนย์จริงของทั้งสองกลุ่มใหม่ ซึ่งจะส่งผลในการย้ายถิ่นฐานของ centroids ดังแสดงในรูป 3.6 (ค) อีกครั้งที่เรากำหนดกรณีเพื่อเซนทรอยด์ที่ใกล้เคียง แต่ตอนนี้ไม่มีอะไรเปลี่ยนแปลงและที่ตั้งของ centroids ยังคงเหมือนเดิม หลังจากที่บรรจบ k หมายถึงผลขั้นตอนวิธีการทั้งสองกลุ่มและสถิติที่เกี่ยวข้อง.
คุณภาพของการจัดกลุ่มโดยเฉพาะอย่างยิ่งสามารถกำหนดเป็นระยะทางเฉลี่ยจากตัวอย่างเพื่อเซนทรอยด์ที่เกี่ยวข้อง การจัดกลุ่ม k-หมายความว่าเป็นเพียงการแก้ปัญหาและไม่ได้รับประกันว่าพบกลุ่ม k ที่ลดระยะทางเฉลี่ยจากตัวอย่างเพื่อเซนทรอยด์ที่เกี่ยวข้อง ในความเป็นจริงผลที่ได้ขึ้นอยู่กับการเริ่มต้น ดังนั้นจึงเป็นเรื่องที่ดีที่จะดำเนินการซ้ำ ๆ อัลกอริทึมที่มีแตกต่างกันและเริ่มต้นให้เลือกที่ดีที่สุด.
มีหลายสายพันธุ์ของอัลกอริทึมที่อธิบายเพียง แต่เราหมายถึงวรรณกรรมมาตรฐานสำหรับรายละเอียด [5, 15, 52, 67, 129] หนึ่งในปัญหาที่เมื่อใช้อัลกอริทึม k หมายถึงคือการกำหนดจำนวนกลุ่ม k K-วิธีนี้ได้รับการแก้ไขจากจุดเริ่มต้น โปรดทราบว่าระยะทางเฉลี่ยจากตัวอย่างเพื่อเซนทรอยด์ที่เกี่ยวข้องลดลงเมื่อ k จะเพิ่มขึ้น ในกรณีที่รุนแรงเช่นทุกคนมีกลุ่มของตัวเองและระยะทางเฉลี่ยจากตัวอย่างเพื่อเซนทรอยด์ที่สอดคล้องกันเป็นศูนย์ นี้ไม่ได้เป็นประโยชน์อย่างมาก ดังนั้นวิธีการที่ใช้บ่อยคือการเริ่มต้นที่มีจำนวนเล็ก ๆ ของกลุ่มและจากนั้นค่อยๆเพิ่ม k ตราบใดที่มีการปรับปรุงอย่างมีนัยสำคัญ.
อีกเทคนิคหนึ่งที่นิยมคือการจัดกลุ่มตามลำดับชั้น Agglomerative Clustering (AHC) ที่นี่จำนวนตัวแปรของกลุ่มที่ถูกสร้างขึ้น รูปที่ 3.7 แสดงให้เห็นถึงความคิด วิธีการทำงานดังนี้ กำหนดตัวอย่างแต่ละกลุ่มเดี่ยวทุ่มเท ตอนนี้ค้นหาสองกลุ่มที่มีความใกล้เคียงกับอีกคนหนึ่ง ผสานทั้งสองกลุ่มเป็นกลุ่มใหม่ ยกตัวอย่างเช่นกลุ่มเริ่มต้นประกอบด้วยเพียงขและเพียงแค่จะรวมเข้าเป็นกลุ่มใหม่ AB ตอนนี้ค้นหาอีกครั้งสำหรับสองกลุ่ม
Being translated, please wait..
Results (Thai) 3:[Copy]
Copied!
ตอนนี้เราหาศูนย์ที่แท้จริงของแต่ละกลุ่ม เหล่านี้แบบฟอร์มตำแหน่งใหม่ของทั้งสองจุดเซนทรอยด์ ส่วนในรูปที่ 3.6 จุดเซนทรอยด์ ( B ) จะขึ้นอยู่กับกลุ่มที่แสดงในรูปที่ 3.6 ( ) ในรูปที่ 3.6 ( B ) เราอีกครั้งกำหนดทุกกรณีไป centroid ที่ใกล้ที่สุด ผลลัพธ์ที่ได้ในกลุ่มที่แสดงในรูปที่ 3.6 ใหม่ 2 ( B )อินสแตนซ์ทั้งหมดที่มีจุด centroid และเปิดให้กับคนทุกอินสแตนซ์ด้วยจุดปิดให้กับคนอื่น ๆ ตอนนี้เราหาศูนย์ใหม่ที่แท้จริงของทั้งสองกลุ่ม ผลนี้ในการย้ายของจุดเซนทรอยด์ ดังแสดงในรูปที่ 3.6 ( C ) อีกครั้งที่เรามอบหมายกรณีไป centroid ที่ใกล้ที่สุด อย่างไรก็ตามตอนนี้ไม่มีอะไรเปลี่ยนแปลง และตำแหน่งของจุดเซนทรอยด์ ยังเหมือนเดิม หลังจากที่บรรจบที่ k-means ขั้นตอนวิธีเอาท์พุททั้งสองกลุ่ม และที่เกี่ยวข้องกับสถิติ
คุณภาพของเฉพาะกลุ่มสามารถกำหนดระยะห่างเฉลี่ยจากตัวอย่างในเคมบริดจ์ที่สอดคล้องกันของk-means การจัดกลุ่มเป็นเพียงการแก้ปัญหา และไม่รับประกันว่าพบ K กลุ่มที่ลดระยะห่างเฉลี่ยจากตัวอย่างในเคมบริดจ์ที่สอดคล้องกันของ ในความเป็นจริง ผลลัพธ์ที่ได้ขึ้นอยู่กับการเริ่มต้น . ดังนั้นจึงเป็นเรื่องที่ดีที่จะซ้ำกับ initializations รันขั้นตอนวิธีที่แตกต่างกันและเลือกหนึ่งที่ดีที่สุด .
มีหลายสายพันธุ์ของอัลกอริทึมที่ระบุไว้อย่างไรก็ตาม เราเรียกวรรณกรรมมาตรฐานสำหรับรายละเอียด [ 5 , 15 , 52 , 67 , 129 ] หนึ่งในปัญหาที่เมื่อใช้ k-means ขั้นตอนวิธีการกำหนดหมายเลขของกลุ่มเค สำหรับ k-means นี้ได้รับการแก้ไขตั้งแต่เริ่มต้น โปรดทราบว่าเฉลี่ยระยะทางจากตัวอย่างที่สอดคล้องกันของภาพลดลงเป็น K เพิ่มขึ้นในกรณีที่รุนแรงทุกกรณีที่มีกลุ่มของตัวเอง และ ระยะทางเฉลี่ยจากตัวอย่างในเคมบริดจ์ที่สอดคล้องกันของศูนย์ นี้ไม่ได้เป็นประโยชน์มาก ดังนั้น วิธีการที่ใช้บ่อยคือการเริ่มต้นด้วยจำนวนเล็ก ๆของกลุ่ม แล้วค่อย ๆเพิ่ม K ตราบใดที่มีการปรับปรุงที่สำคัญ .
อื่นที่เป็นที่นิยมสำหรับ agglomerative เทคนิคการจัดกลุ่มลำดับชั้น ( AHC ) ที่นี่จำนวนตัวแปรของกลุ่มจะถูกสร้างขึ้น รูปที่ 3 แสดงให้เห็นถึงความคิด วิธีการทำงานดังนี้ มอบหมายให้แต่ละอินสแตนซ์เพื่ออุทิศ Singleton คลัสเตอร์ ตอนนี้ค้นหาสองกลุ่มที่อยู่ใกล้กัน ผสานสองกลุ่มในคลัสเตอร์ใหม่ ตัวอย่างเช่น
Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2024 I Love Translation. All reserved.

E-mail: