keywords. The Web pages in the corpus are first encoded into a set of  translation - keywords. The Web pages in the corpus are first encoded into a set of  Indonesian how to say

keywords. The Web pages in the corp

keywords. The Web pages in the corpus are first encoded into a set of document vectors as described in Section 3.1. We intend to organize these Web pages into a set of clusters such that similar Web pages will fall into the same cluster. Moreover, similar clus¬ters should be ‘close’ in some manner. That is, we should be able to organize the clusters such that clusters that contain similar Web pages should be close in some measurement space. The unsu¬pervised learning algorithm of SOM networks (Kohonen, 1997) meets our needs. The SOM algorithm maps a set of high-dimen¬sional vectors to a two-dimensional map of neurons according to the similarities among the vectors. Similar vectors, i.e. vectors with small distance, will map to the same or nearby neurons after the training (or learning) process. That is, the similarity between vec¬tors in the original space is preserved in the mapped space. Apply¬ing the SOM algorithm to the document vectors, we actually perform a clustering process on the corpus. A neuron in the trained map can be considered as a cluster. Similar Web pages will fall into the same or neighboring neurons (clusters). Moreover, the similar¬ity of two clusters can be measured by the geometrical distance be¬tween their corresponding neurons. To decide the cluster to which a Web page or a keyword belongs, we apply two labeling processes on the Web pages and keywords, respectively. After the Web page labeling process, each Web page is associated with a neuron in the map. We record such associations and obtain the document cluster map (DCM). Similarly, each neuron will be labeled by a set of key-words after the keyword labeling process and we have the key-word cluster map (KCM). We then use these maps to generate the semantic metadata and tags.
We define some denotations and describe the clustering process here. Let xi ¼ fxinj1 6 n 6 Ng; 1 6 i 6 M, be the document vector of the ith Web page in the corpus, where N is the number of keywords and M is the number of the Web pages in the corpus. We use these vectors as the training inputs to the SOM network. The network consists of a regular grid of neurons. Each neuron in the network has N synapses. Letwj ¼ fwjnj1 6 n 6 Ng; 1 6 j 6 J, be the synaptic weight vector of thejth neuron in the network, whereJ is the num¬ber of neurons in the network. We trained the network by the fol¬lowing SOM algorithm:
Step 1: Randomly select a training vector xi.
Step 2: Find the neuronj with synaptic weights wj which is closest to xi, i.e.
kxi ~ wjk ¼ min kxi ~ wkk:
16k6J
Step 3: For every neuron l in the neighborhood of neuronj, update its synaptic weights by
wnew
l ¼ wold
l þ aðtÞðxi ~ wold
l Þ;
where aðtÞ is the training gain at epoch number t.
Step 4: Repeat Step 1 through 4 until all training vectors are selected. Goto Step 5.
Step 5: Increase epoch number t. If t reaches the preset maximum training epoch number T, halt the training process; otherwise decrease aðtÞ and the neighborhood size, goto Step 1.


0/5000
From: -
To: -
Results (Indonesian) 1: [Copy]
Copied!
kata kunci. Halaman Web dalam corpus pertama dikodekan ke dalam satu set vektor dokumen seperti yang dijelaskan dalam bagian 3.1. Kami bermaksud untuk mengatur halaman Web ini ke dalam satu set cluster sedemikian rupa sehingga halaman Web yang serupa akan jatuh ke dalam gugus sama. Selain itu, clus¬ters sama harus 'dekat' dalam beberapa cara. Itu adalah, kita harus mampu mengorganisir kelompok sehingga cluster yang berisi halaman Web yang serupa harus dekat dalam beberapa ruang pengukuran. Unsu¬pervised belajar algoritma SOM jaringan (Kohonen, 1997) memenuhi kebutuhan kita. Algoritma SOM peta seperangkat vektor tinggi-dimen¬sional untuk peta dua dimensi neuron menurut kesamaan antara vektor. Mirip vektor, vektor yaitu dengan jarak kecil, akan peta yang sama atau dekat neuron setelah pelatihan (atau belajar) proses. Itu adalah, kesamaan antara vec¬tors di ruang asli yang diawetkan di ruang dipetakan. Apply¬ing SOM algoritma untuk dokumen vektor, kami benar-benar melakukan proses clustering corpus. Neuron di peta terlatih dapat dianggap sebagai sebuah cluster. Halaman Web yang serupa akan jatuh ke neuron sama atau tetangga (kelompok). Selain itu, similar¬ity dua kelompok dapat diukur oleh be¬tween geometris jarak neuron mereka sesuai. Untuk menentukan cluster yang halaman Web atau kata kunci yang dimiliki, kami menerapkan dua pelabelan proses pada halaman Web dan kata kunci, masing-masing. Setelah halaman Web pelabelan proses, setiap halaman Web ini dikaitkan dengan neuron dalam peta. Kami merekam Asosiasi tersebut dan mendapatkan dokumen cluster peta (DCM). Demikian pula, neuron setiap akan diberi label oleh satu set kata kunci setelah kata kunci pelabelan proses dan kami memiliki peta cluster kata kunci (KCM). Kami kemudian menggunakan peta ini untuk menghasilkan semantik metadata dan tag.Kita mendefinisikan beberapa denotations dan menggambarkan proses clustering di sini. Biarkan fxinj1 xi ¼ 6 n 6 Ng; 1 6 aku 6 M, menjadi vektor dokumen halaman Web engan di dalam korpus, dimana N adalah jumlah kata kunci dan M adalah jumlah halaman Web dalam corpus. Kami menggunakan vektor-vektor ini sebagai masukan pelatihan ke SOM jaringan. Jaringan terdiri dari grid biasa neuron. Masing-masing neuron dalam jaringan memiliki N sinapsis. Fwjnj1 Letwj ¼ 6 n 6 Ng; 1 6 j 6 J, menjadi berat sinaptik vektor penyakit syaraf thejth dalam jaringan, whereJ yang ber ¬ num neuron dalam jaringan. Kami dilatih jaringan oleh algoritma SOM fol¬lowing:Langkah 1: Secara acak memilih xi vektor pelatihan.Langkah 2: Menemukan neuronj dengan wj sinaptik bobot yang terdekat ke xi, yaitukxi ~ wjk ¼ min kxi ~ wkk:16k6JLangkah 3: Untuk setiap l neuron di lingkungan neuronj, memperbarui bobot yang sinaps olehjugal ¼ akanl þ aðtÞðxi ~ akanl Þ;dimana aðtÞ adalah mendapatkan pelatihan pada zaman nomor t.Langkah 4: Ulangi langkah 1 melalui 4 sampai semua pelatihan vektor yang dipilih. Goto langkah 5.Langkah 5: Meningkatkan zaman nomor t. Jika t mencapai maksimum preset pelatihan zaman nomor T, menghentikan proses pelatihan; Jika tidak mengurangi aðtÞ dan ukuran lingkungan, goto langkah 1.
Being translated, please wait..
Results (Indonesian) 2:[Copy]
Copied!
kata kunci. Halaman Web di korpus yang pertama dikodekan ke dalam satu set vektor dokumen seperti yang dijelaskan dalam Bagian 3.1. Kami bermaksud untuk mengatur halaman Web tersebut ke dalam satu set cluster sehingga halaman Web yang sama akan jatuh ke dalam cluster yang sama. Selain itu, clus¬ters serupa harus 'dekat' dalam beberapa cara. Artinya, kita harus mampu mengatur cluster sehingga cluster yang berisi halaman Web yang sama harus dekat di beberapa ruang pengukuran. Algoritma pembelajaran unsu¬pervised jaringan SOM (Kohonen, 1997) memenuhi kebutuhan kita. Algoritma SOM memetakan sebuah set vektor tinggi dimen¬sional untuk peta dua dimensi dari neuron menurut kesamaan antara vektor. Vektor yang sama, vektor yaitu dengan jarak kecil, akan memetakan ke neuron yang sama atau di sekitarnya setelah pelatihan (atau belajar) proses. Yaitu, kesamaan antara vec¬tors di ruang asli yang diawetkan dalam ruang dipetakan. Apply¬ing algoritma SOM ke vektor dokumen, kita benar-benar melakukan proses pengelompokan pada korpus. Sebuah neuron di peta yang terlatih dapat dianggap sebagai sebuah cluster. Halaman Web yang sama akan jatuh ke dalam neuron yang sama atau tetangga (cluster). Selain itu, similar¬ity dari dua kelompok dapat diukur dengan jarak geometris be¬tween neuron yang sesuai mereka. Untuk memutuskan cluster yang halaman Web atau kata kunci milik, kita menerapkan dua proses pelabelan pada halaman Web dan kata kunci, masing-masing. Setelah proses pelabelan halaman Web, setiap halaman Web yang terkait dengan neuron di peta. Kami merekam asosiasi tersebut dan mendapatkan peta klaster dokumen (DCM). Demikian pula, setiap neuron akan diberi label oleh satu set kunci-kata setelah proses pelabelan kata kunci dan kami memiliki peta klaster kunci-kata (KCM). Kami kemudian menggunakan peta ini untuk menghasilkan metadata semantik dan tag.
Kami mendefinisikan beberapa denotasi dan menggambarkan proses pengelompokan sini. Biarkan xi ¼ fxinj1 6 n 6 Ng; 1 6 i 6 M, menjadi vektor dokumen dari halaman Web engan di korpus, di mana N adalah jumlah kata kunci dan M adalah jumlah halaman web di korpus. Kami menggunakan vektor ini sebagai masukan pelatihan untuk jaringan SOM. Jaringan ini terdiri dari kotak biasa neuron. Setiap neuron dalam jaringan memiliki N sinapsis. Letwj ¼ fwjnj1 6 n 6 Ng; 1 6 j 6 J, menjadi vektor bobot sinaptik dari thejth neuron dalam jaringan, whereJ adalah num¬ber neuron dalam jaringan. Kami dilatih jaringan dengan algoritma fol¬lowing SOM:
Langkah 1: Secara acak pilih xi vektor pelatihan.
Langkah 2: Cari neuronj dengan bobot sinaptik wj yang paling dekat dengan xi, yaitu
kxi ~ wjk ¼ min kxi ~ WKK:
16k6J
Langkah 3: Untuk setiap l neuron di lingkungan neuronj, memperbarui bobot synaptic sebesar
wnew
l ¼ wold
l þ aðtÞðxi ~ wold
Þ
l;. di mana aðtÞ adalah gain pelatihan di zaman nomor t
Langkah 4: Ulangi Langkah 1 sampai 4 sampai semua vektor pelatihan yang dipilih. Goto Langkah 5.
Langkah 5: Meningkatkan zaman nomor t. Jika t mencapai preset jumlah pelatihan zaman maksimum T, menghentikan proses pelatihan; sebaliknya menurunkan aðtÞ dan ukuran lingkungan, goto Langkah 1.


Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2024 I Love Translation. All reserved.

E-mail: