ข้ามไปเนื้อหา

การปรับละเอียด

จากวิกิพีเดีย สารานุกรมเสรี

การปรับละเอียด (fine-tuning) ในสาขาการเรียนรู้ของเครื่อง เป็นวิธีการเรียนรู้แบบถ่ายโอนแบบหนึ่ง ทำโดยฝึกพารามิเตอร์น้ำหนักของแบบจำลองที่ได้รับการฝึกล่วงหน้าแล้วโดยใช้ข้อมูลใหม่[1] การปรับละเอียดสำหรับโครงข่ายประสาทเทียมอาจทำโดยปรับชั้นทั้งหมดหรือทำแค่เฉพาะบางชั้นเท่านั้นก็ได้ ในกรณีหลัง ชั้นที่ไม่ได้ทำการปรับละเอียดจะถูกหยุดให้พารามิเตอร์คงที่ ไม่ได้เปลี่ยนแปลงไปในระหว่างกระบวนการการแพร่กระจายย้อนกลับ[2]

ภาพรวม

[แก้]

ในสถาปัตยกรรมเช่นโครงข่ายประสาทแบบสังวัตนาการ โดยปกติมักจะทำโดยคงชั้นที่ใกล้กับชั้นป้อนเข้าเอาไว้ไม่ให้เปลี่ยนแปลงไปในการฝึกใหม่ เพื่อทำการวิเคราะห์และแยกสกัดเอาค่าแทนลักษณะที่สำคัญของรูปภาพโดยทั่วไป ในขณะที่ชั้นที่ลึกใกล้ชั้นขาออกจะได้รับการปรับค่าพารามิเตอร์น้ำหนักขณะที่ทำการฝึกใหม่[2][3]

การปรับละเอียดเป็นวิธีการทั่วไปที่ใช้ใน การประมวลภาษาธรรมชาติ โดยเฉพาะในการสร้างแบบจำลองภาษา ตัวอย่างเช่น สำหรับในแบบจำลองภาษาขนาดใหญ่ เช่น GPT-2 ของ OpenAI การปรับละเอียดสามารถทำให้ได้ผลลัพธ์ที่ดีกว่าแบบจำลองที่ได้รับการฝึกล่วงหน้าโดยทั่วไปจะได้[4] แบบจำลองที่ได้รับการฝึกล่วงหน้าโดยใช้คลังข้อความขนาดใหญ่ทั่วไปมักได้รับการปรับละเอียดโดยการนำพารามิเตอร์แบบจำลองกลับมาใช้ใหม่เป็นจุดเริ่มต้น และเพิ่มชั้นเฉพาะงานที่ได้รับการฝึกตั้งแต่เริ่มต้นใหม่[5] การปรับละเอียดโดยปรับตัวแบบจำลองทั้งหมดใหม่เลยก็เป็นเรื่องปกติและมักจะให้ผลลัพธ์ที่ดีกว่า แต่ต้องแลกมาด้วยความซับซ้อนในการคำนวณที่เพิ่มขึ้น [4] นอกจากนี้ การปรับละเอียดอย่างสมบูรณ์มีแนวโน้มที่จะเกิดการเรียนรู้เกิน ซึ่งอาจลดประสิทธิภาพของแบบจำลองเมื่อใช้กับข้อมูลอื่น ๆ นอกเหนือไปจากข้อมูลการฝึกที่ใช้ในการปรับละเอียด[6]

โดยทั่วไปแล้วการปรับละเอียดจะใช้กับการเรียนรู้แบบมีผู้สอน แต่ก็มีเทคนิคที่ทำให้ใช้กับการเรียนรู้แบบกึ่งมีผู้สอนได้ด้วย[7] นอกจากนี้ จักรกลสนทนาที่ใช้แบบจำลองภาษาขนาดใหญ่ที่ผ่านการปรับละเอียดอย่างแชตจีพีทีก็สามารถทำการเรียนรู้โดยข้อความจากมนุษย์คุยโต้ตอบด้วยได้[8][9]

LoRA (Low-rank adaptation) ถือเป็นรูปแบบหนึ่งของการปรับละเอียด นอกจากจะใช้กับแบบจำลองภาษาแล้วยังได้รับการนำมาใช้กับแบบจำลองรูปภาพด้วย[10]

อ้างอิง

[แก้]
  1. Quinn, Joanne (2020). Dive into deep learning: tools for engagement. Thousand Oaks, California. p. 551. ISBN 978-1-5443-6137-6. เก็บจากแหล่งเดิมเมื่อ January 10, 2023. สืบค้นเมื่อ January 10, 2023.
  2. 2.0 2.1 "CS231n Convolutional Neural Networks for Visual Recognition". cs231n.github.io. สืบค้นเมื่อ 9 March 2023.
  3. Zeiler, Matthew D; Fergus, Rob (2013). "Visualizing and Understanding Convolutional Networks". arXiv:1311.2901. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  4. 4.0 4.1 Dingliwal, Saket; Shenoy, Ashish; Bodapati, Sravan; Gandhe, Ankur; Gadde, Ravi Teja; Kirchhoff, Katrin (2021). "Prompt Tuning GPT-2 language model for parameter-efficient domain adaptation of ASR systems". arXiv:2112.08718. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  5. Dodge, Jesse; Ilharco, Gabriel; Schwartz, Roy; Farhadi, Ali; Hajishirzi, Hannaneh; Smith, Noah (2020). "Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping". arXiv:2002.06305. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  6. Kumar, Ananya; Raghunathan, Aditi; Jones, Robbie; Ma, Tengyu; Liang, Percy (2022). "Fine-Tuning can Distort Pretrained Features and Underperform Out-of-Distribution". arXiv:2202.10054. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  7. Yu, Yue; Zuo, Simiao; Jiang, Haoming; Ren, Wendi; Zhao, Tuo; Zhang, Chao (2020). "Fine-Tuning Pre-trained Language Model with Weak Supervision: A Contrastive-Regularized Self-Training Approach". arXiv:2010.07835. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  8. "Introducing ChatGPT". openai.com. สืบค้นเมื่อ 9 March 2023.
  9. Glaese, Amelia; McAleese, Nat; Trębacz, Maja; Aslanides, John; Firoiu, Vlad; Ewalds, Timo; Rauh, Maribeth; Weidinger, Laura; Chadwick, Martin; Thacker, Phoebe; Campbell-Gillingham, Lucy (2022). "Improving alignment of dialogue agents via targeted human judgements". arXiv:2209.14375. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  10. Wu, Hecong (February 2023), ControlLoRA: A Light Neural Network To Control Stable Diffusion Spatial Information, สืบค้นเมื่อ 2023-04-27