I. Introduction to Neural Networks
A simple mathematical representation of a neuron is shown in Figure 2. The notation to be used denotes the inputs as x, the weights as w, the summed output (pre-threshold) as yin, and the final output as y. Subscripts follow these letters where necessary to distinguish among multiple inputs, weights, etc. Thus, for the single neuron shown with N inputs, the inputs are denoted by x1, x2, ..., xN with corresponding weights w1, w2, ..., wN. The pre-threshold output yin is a sum of each input multiplied by the weight on its line. The threshold function will arbitrarily produce binary outputs for y - i.e. zero if the sum is less than a defined threshold value θ, or one if yin is equal to or exceeds the threshold.
For supervised learning, neural networks are trained to map input patterns to desired outputs (i.e. target values). A modified threshold function, which proves more useful with various learning algorithms, produces bipolar (-1 or +1) rather than binary outputs. Also, an additional fixed input of +1 may be provided with the weight on the connecting line referred to as a bias value (b). This allows flexibility is setting of the threshold value θ.
Results (
Thai) 1:
[Copy]Copied!
I. บทนำเครือข่ายประสาท ตัวแทนทางคณิตศาสตร์เรื่องของเซลล์ประสาทจะแสดงในรูปที่ 2 สัญลักษณ์ที่ใช้แสดงอินพุตเป็น x น้ำหนักเป็น w, summed การแสดงผล (ก่อนจำกัด) เป็นหยิน และผลลัพธ์สุดท้ายเป็นตัวห้อย y. ตามตัวอักษรเหล่านี้ซึ่งจำเป็นต้องแยกแยะหลายอินพุต น้ำหนัก ฯลฯ ดังนั้น สำหรับเซลล์ประสาทเดียวที่มี N อินพุต อินพุตสามารถระบุ โดย x 1, x 2,..., xN มีตรงน้ำหนัก w1, w2,..., ดับเบิ้ลยูเอ็น ยินดีจำกัดก่อนออกเป็นผลรวมของแต่ละอินพุตคูณ ด้วยน้ำหนักของบรรทัด ฟังก์ชันจำกัดโดยจะผลิตเอาท์พุตไบนารีสำหรับ y - เช่นศูนย์ถ้าผลรวม น้อยกว่าที่กำหนดขีดจำกัดค่าθ หรือหนึ่งถ้ายินเท่ากับ หรือเกินกว่าขีดจำกัดสำหรับแบบมีผู้สอนการเรียนรู้ มีการฝึกอบรมเครือข่ายประสาทต้องป้อนข้อมูลรูปแบบการแสดงผลที่ระบุ (เช่นค่าเป้าหมาย) ฟังก์ชันแก้ไขขีดจำกัด ที่พิสูจน์ประโยชน์มากขึ้นกับอัลกอริทึมการเรียนรู้ต่าง ๆ ผลิตไฟที่ไบโพลาร์ (-1 หรือ + 1) แทนที่แสดงผลไบนารี ยัง เพิ่มเติมข้อมูล + 1 คงอาจมีน้ำหนักบนเส้นเชื่อมต่อที่เรียกว่าการตั้งค่า (b) มีความยืดหยุ่นคือการตั้งค่าของθค่าขีดจำกัดได้
Being translated, please wait..

Results (
Thai) 2:
[Copy]Copied!
ฉันรู้เบื้องต้นเกี่ยวกับโครงข่ายประสาท
การเป็นตัวแทนทางคณิตศาสตร์ที่เรียบง่ายของเซลล์ประสาทจะถูกแสดงในรูปที่ 2 สัญกรณ์ที่จะใช้ปัจจัยการผลิตหมายถึงการเป็น x น้ำหนักเป็น W, เอาท์พุทสรุป (ก่อนเกณฑ์) เป็นหยินและผลลัพธ์สุดท้าย เป็นปี ห้อยตามตัวอักษรเหล่านี้ในกรณีที่จำเป็นที่จะแยกแยะความแตกต่างในหมู่หลายปัจจัยการผลิต, น้ำหนัก, ฯลฯ ดังนั้นสำหรับเซลล์ประสาทเดียวแสดงกับปัจจัยการผลิตที่ยังไม่มีปัจจัยการผลิตที่มีการแสดงโดย x1, x2, ... , xN มีน้ำหนักที่สอดคล้องกัน w1, w2 .. . WN การส่งออกก่อนเกณฑ์หยินเป็นผลรวมของการป้อนข้อมูลแต่ละคูณด้วยน้ำหนักในสายของ ฟังก์ชั่นเกณฑ์โดยพลการจะผลิตออกไบนารีสำหรับปี - คือศูนย์ถ้าผลรวมน้อยกว่าθค่าเกณฑ์ที่กำหนดไว้หรือหนึ่งถ้าหยินเท่ากับหรือเกินเกณฑ์.
สำหรับการเรียนรู้ภายใต้การดูแลเครือข่ายประสาทได้รับการฝึกฝนเพื่อแมรูปแบบการป้อนข้อมูลไปยัง เอาท์พุทที่ต้องการ (เช่นค่าเป้าหมาย) ฟังก์ชั่นการปรับเปลี่ยนเกณฑ์ซึ่งพิสูจน์ประโยชน์มากขึ้นกับขั้นตอนวิธีการเรียนรู้ต่าง ๆ ผลิตสองขั้ว (-1 หรือ +1) มากกว่าผลไบนารี นอกจากนี้การป้อนข้อมูลการแก้ไขเพิ่มเติม 1 อาจจะให้มีน้ำหนักในการเชื่อมต่อสายเรียกว่าค่าอคติ (ข) นี้จะช่วยให้มีความยืดหยุ่นคือการตั้งค่าของค่าเกณฑ์θ
Being translated, please wait..

Results (
Thai) 3:
[Copy]Copied!
ผมแนะนำโครงข่าย
การแสดงทางคณิตศาสตร์ที่เรียบง่ายของเซลล์ประสาทที่แสดงในรูปที่ 2 หมายเหตุจะใช้แสดงข้อมูลเป็น X น้ำหนักเป็น W , สรุปออก ( ก่อนเกณฑ์ ) เป็นหยิน และสุดท้ายผลเป็น Y subscripts ตามจดหมายเหล่านี้จำเป็นที่ต้องแยกความแตกต่างระหว่างหลายปัจจัย ยกน้ำหนัก ฯลฯ ดังนั้นสำหรับเดียวเซลล์ประสาทแสดงด้วยปัจจัยกระผมจะเขียนแทนด้วย x1 , x2 , . . . , คริสเตียนเดียวกันน้ำหนัก W1 , W2 , . . . , WN . ก่อนเกณฑ์ผลผลิต หยิน คือ ผลรวมของปัจจัยแต่ละคูณด้วยน้ำหนักบนสายของ ฟังก์ชันเกณฑ์จะโดยพลการผลิตผลผลิตไบนารีสำหรับ Y - เช่นศูนย์ถ้าผลรวมน้อยกว่ากำหนดเกณฑ์ค่าθหรือถ้าหยินเท่ากับหรือเกินเกณฑ์ .
สำหรับการเรียนรู้โครงข่ายประสาทเทียมมาแผนที่รูปแบบการป้อนข้อมูลเพื่อผลที่ต้องการ ( เช่นเป้าหมายค่า ) ฟังก์ชันแก้ไขเกณฑ์ ซึ่งพิสูจน์ได้ประโยชน์มากขึ้นด้วยอัลกอริทึมการเรียนรู้ต่างๆ สร้างไบโพลาร์ ( - 1 , 1 ) มากกว่าผลผลิตไบนารี นอกจากนี้ การแก้ไขข้อมูลเพิ่มเติม 1 อาจจะให้มีน้ำหนักบนสายเชื่อมต่อ เรียกว่า อคติ ค่า ( B )นี้จะช่วยให้ความยืดหยุ่นคือการตั้งค่าของเกณฑ์ค่า
θ .
Being translated, please wait..
