To obtain the DCM, each document vector is compared with every neuron  translation - To obtain the DCM, each document vector is compared with every neuron  Indonesian how to say

To obtain the DCM, each document ve

To obtain the DCM, each document vector is compared with every neuron in the trained map. A Web page is labeled to a neuron if the document vector of this page is the closest to the synaptic weight vector of this neuron. Formally, the ith Web page is labeled to thejth neuron if Eq. (1) holds. When all Web pages are labeled to the map, we should record the Web pages labeled on each neuron and obtain the DCM. In the DCM, each neuron is labeled by a set of Web pages which have similar document vectors, i.e. vectors with many overlapped elements. Such similarity makes a neuron being

a cluster of similar Web pages in terms of their keyword co-occur¬rences. Thus Web pages in the same cluster could be considered semantically related since Web pages that contain many over-lapped words should be similar in context. Note that some neurons may have no document labeled on them. We call these neurons the unlabeled neurons.
We may obtain the KCM by labeling each neuron with certain keywords, which can be achieved by examining the neurons’ syn¬aptic weight vectors. We design the keyword labeling process based on the following observations. Since we use binary represen¬tation for the document vectors, the elements in the weight vectors will move toward either 0 or 1. Ideally, all elements should be either 0 or 1 after the training. In practice this situation is not likely to happen since the training vectors are different. However, an ele¬ment will have a value near 1 if it is repeatedly moved toward 1 during the training. Since an element with value 1 in a document vector represents the presence of its corresponding keyword in that Web page, an element with value near 1 in a synaptic weight vector also shows that such neuron has been repeatedly told to ‘learn’ the corresponding keyword during the training process. This keyword should be important and often occur in those Web pages that labeled to this neuron. Thus we should label this neuron by those keywords that their corresponding elements have values near 1. According to such interpretation, we design the following keyword labeling process. First we calculate the agglomerative weight vector of a neuron by aggregating the weight from neigh-boring neurons as follows:



0/5000
From: -
To: -
Results (Indonesian) 1: [Copy]
Copied!
Untuk mendapatkan DCM, setiap dokumen vektor ini dibandingkan dengan setiap neuron di peta terlatih. Halaman Web dilabeli untuk neuron jika vektor dokumen Halaman ini adalah yang terdekat dengan berat sinaptik vektor penyakit syaraf ini. Secara formal, halaman Web engan dilabeli untuk thejth neuron jika memegang EQ (1). Ketika semua halaman Web yang diberi label peta, kita harus merekam halaman Web yang berlabel pada neuron masing-masing dan mendapatkan DCM. Dalam DCM, neuron masing-masing diberi label oleh sekumpulan halaman Web yang memiliki serupa dokumen vektor, vektor yaitu dengan banyak unsur-unsur yang tumpang tindih. Kesamaan tersebut membuat neuron yang sekelompok halaman Web yang serupa dalam hal mereka kata kunci co-occur¬rences. Dengan demikian halaman Web di klaster sama dapat dianggap semantik terkait karena halaman Web yang berisi banyak kata-kata berlebihan lapped harus serupa dalam konteks. Perhatikan bahwa beberapa neuron mungkin memiliki tidak ada dokumen yang berlabel pada mereka. Kita sebut neuron-neuron ini neuron unlabeled.Kita dapat memperoleh KCM dengan pelabelan setiap neuron dengan kata kunci tertentu, yang dapat dicapai dengan memeriksa neuron syn¬aptic berat vektor. Kami merancang proses pelabelan kata kunci berdasarkan pengamatan berikut. Karena kita menggunakan biner represen¬tation untuk dokumen vektor, elemen dalam vektor berat akan bergerak ke arah 0 atau 1. Idealnya, Semua elemen harus 0 atau 1 setelah pelatihan. Dalam prakteknya situasi ini tidak mungkin terjadi karena vektor pelatihan berbeda. Namun, ele¬ment akan memiliki nilai di dekat 1 jika berulang kali dipindahkan ke arah 1 selama pelatihan. Karena sebuah elemen dengan nilai 1 dalam suatu vektor dokumen mewakili kehadiran kata kunci yang sesuai dalam halaman Web, sebuah elemen dengan nilai di dekat 1 dalam suatu vektor sinaptik berat juga menunjukkan bahwa neuron tersebut telah berulang kali diberitahu untuk 'belajar' kata kunci yang sesuai selama proses pelatihan. Kata kunci ini harus penting dan sering terjadi di halaman Web yang label neuron ini. Dengan demikian kita harus label neuron ini oleh kata kunci bahwa unsur-unsur yang sesuai mereka memiliki nilai-nilai di dekat 1. Menurut penafsiran secara demikian itu, kami desain kata kunci berikut pelabelan proses. Pertama kita menghitung berat agglomerative vektor dari neuron dengan menggabungkan berat dari lingkungan-membosankan neuron sebagai berikut:
Being translated, please wait..
Results (Indonesian) 2:[Copy]
Copied!
Untuk mendapatkan DCM, setiap vektor dokumen dibandingkan dengan setiap neuron di peta terlatih. Halaman Web diberi label untuk neuron jika vektor dokumen halaman ini adalah yang paling dekat dengan vektor bobot sinaptik neuron ini. Secara formal, halaman Web engan diberi label untuk thejth neuron jika Persamaan. (1) berlaku. Ketika semua halaman Web diberi label untuk peta, kita harus mencatat halaman Web label pada setiap neuron dan mendapatkan DCM. Dalam DCM, setiap neuron diberi label oleh satu set halaman Web yang memiliki vektor dokumen serupa, vektor yaitu dengan banyak tumpang tindih elemen. Kesamaan seperti membuat neuron menjadi sekelompok halaman web yang sama dalam hal kata kunci co-occur¬rences mereka. Jadi halaman Web dalam cluster yang sama bisa dianggap semantik terkait sejak halaman Web yang berisi banyak over-kata tersusun harus serupa dalam konteks. Perhatikan bahwa beberapa neuron mungkin tidak memiliki dokumen berlabel pada mereka. Kami menyebutnya neuron ini neuron berlabel. Kita mungkin mendapatkan KCM dengan label setiap neuron dengan kata kunci tertentu, yang dapat dicapai dengan memeriksa vektor berat syn¬aptic neuron '. Kami merancang proses pelabelan kata kunci berdasarkan pengamatan berikut. Karena kita menggunakan represen¬tation biner untuk vektor dokumen, unsur-unsur dalam vektor berat badan akan bergerak menuju 0 atau 1. Idealnya, semua elemen harus 0 atau 1 setelah pelatihan. Dalam prakteknya situasi ini tidak mungkin terjadi karena vektor pelatihan yang berbeda. Namun, ele¬ment akan memiliki nilai mendekati 1 jika berulang kali bergerak menuju 1 selama pelatihan. Sejak elemen dengan nilai 1 dalam vektor dokumen mewakili kehadiran kata kunci yang sesuai di halaman Web, sebuah elemen dengan nilai mendekati 1 dalam vektor bobot sinaptik juga menunjukkan bahwa neuron tersebut telah berulang kali diberitahu untuk 'belajar' kata kunci yang sesuai selama proses pelatihan. Kata kunci ini harus penting dan sering terjadi pada mereka halaman Web yang berlabel untuk neuron ini. Jadi kita harus label neuron ini dengan kata kunci yang unsur yang sesuai mereka memiliki nilai-nilai dekat 1. Menurut penafsiran seperti itu, kami merancang proses pelabelan kata kunci berikut. Pertama kita menghitung vektor bobot agglomerative dari neuron dengan menggabungkan berat dari neuron meringkik-membosankan sebagai berikut:






Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2024 I Love Translation. All reserved.

E-mail: