ฟังก์ชันกระตุ้น
หน้าตา
ฟังก์ชันกระตุ้น (activation function) หรือ ฟังก์ชันถ่ายโอน (transfer function) คือฟังก์ชันที่กำหนดค่าขาออกจากผลรวมบางอย่างของค่าในแต่ละเซลล์ในชั้นป้อนเข้าของโครงข่ายประสาทเทียม (ซึ่งมักเป็นผลรวมถ่วงน้ำหนักเชิงเสิน) โดยทั่วไปแล้วจะใช้เป็นฟังก์ชันไม่เชิงเส้น และมักเป็นฟังก์ชันทางเดียว
ภาพรวม
[แก้]ในแบบจำลองโครงข่ายประสาทเทียมที่นิยมใช้กันนั้น เซลล์ในแต่ละชั้นจะรับค่าป้อนเข้าแล้วคำนวณผลรวมถ่วงน้ำหนักจากนั้นจึงป้อนให้กับฟังก์ชันกระตุ้นเพื่อเป็นค่าขาออกสำหรับชั้นถัดไป
ในสูตรดังต่อไปนี้ คือฟังก์ชันกระตุ้น
ฟังก์ชันกระตุ้นในยุคเริ่มแรกนิยมใช้ฟังก์ชันขั้นบันได แต่หลังจากที่มีการพัฒนาวิธีการแพร่กระจายย้อนกลับขึ้นมาในปี 1986 จึงนิยมใช้ฟังก์ชันซิกมอยด์
ปัจจุบันฟังก์ชันกระตุ้นที่ได้รับการกล่าวว่าดีที่สุดคือฟังก์ชัน ReLU (ฟังก์ชันทางลาด)[1]
อ้างอิง
[แก้]- ↑ Yann LeCun; Yoshua Bengio; Geoffrey Hinton (2015-05-28). "Deep learning". Nature. 521 (7553): 436–444. doi:10.1038/nature14539.