ข้ามไปเนื้อหา

เพอร์เซปตรอนหลายชั้น

จากวิกิพีเดีย สารานุกรมเสรี

เพอร์เซปตรอนหลายชั้น (multilayer perceptron, ย่อว่า MLP) โครงข่ายประสาทเทียมแบบป้อนไปข้างหน้าชนิดหนึ่ง ประกอบด้วยชั้นของเซลล์ประสาทอย่างน้อย 3 ชั้นขึ้นไป ในแต่ละชั้นนั้นยังมีการใช้ฟังก์ชันกระตุ้นเพื่อให้ค่าแบบไม่เชิงเส้น ยกเว้นแค่ชั้นป้อนเข้า

เพอร์เซปตรอนหลายชั้นอาศัยวิธีการแพร่กระจายย้อนกลับเพื่อทำการเรียนรู้แบบมีผู้สอน[1][2] โครงสร้างหลายชั้นและฟังก์ชันกระตุ้นแบบไม่เชิงเส้นทำให้เพอร์เซปตรอนหลายชั้นแตกต่างไปจากเพอร์เซปตรอนเชิงเส้น สามารถทำการแยกข้อมูลที่ไม่สามารถแยกโดยเชิงเส้นได้[3]

เพอร์เซพตรอนหลายชั้น โดยเฉพาะอย่างยิ่งแบบที่มีชั้นซ่อนเพียงชั้นเดียว บางครั้งถูกเรียกว่าโครงข่ายประสาทเทียมแบบ "วานิลลา"[4]

อ้างอิง

[แก้]
  1. Rosenblatt, Frank (1961). Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Washington DC: Spartan Books. ASIN B0006AXUII.
  2. Rumelhart, David E., Geoffrey E. Hinton, and R. J. Williams (1986). "Learning Internal Representations by Error Propagation". ใน David E. Rumelhart, James L. McClelland, and the PDP research group. (editors) (บ.ก.). Parallel distributed processing: Explorations in the microstructure of cognition, Volume 1: Foundation. MIT Press. ISBN 9780262181204. {{cite book}}: |editor-last= มีชื่อเรียกทั่วไป (help)CS1 maint: multiple names: authors list (ลิงก์)
  3. Cybenko, G. (1989). "Approximation by superpositions of a sigmoidal function". Math. Control Signals Syst. 2 (4): 303–314. doi:10.1007/BF02551274.
  4. Hastie, Trevor. Tibshirani, Robert. Friedman, Jerome (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction. New York, NY: Springer. ISBN 978-0-387-84858-7.{{cite book}}: CS1 maint: multiple names: authors list (ลิงก์)