Hugging Face ml-intern ทำให้หลังการฝึกอบรมดูเหมือนวนรอบตัวแทน ไม่ใช่คิวการวิจัย
Hugging Face ใหม่ล่าสุด ml-intern release นั้นอ่านง่ายเป็นการสาธิตที่ชาญฉลาด การตีความที่มีประโยชน์มากกว่าคือสถาปัตยกรรม โปรเจ็กต์นี้รวมการค้นหากระดาษ การค้นพบชุดข้อมูล การสร้างโค้ด งานฝึกอบรม การประเมิน และการลองใหม่อีกครั้งในเอเจนต์ลูปที่ตรวจสอบได้ที่สร้างขึ้นในระบบนิเวศ Hugging Face นั่นเปลี่ยนการออกแบบท่าเต้นหลังการฝึกอบรมจากท่าเต้นของมนุษย์ที่กระจัดกระจายให้กลายเป็นสิ่งที่ใกล้กับโครงสร้างพื้นฐานของตัวแทนมากขึ้น
ml-internเผยแพร่ Live Space และเปิดตัวบน Product Hunt ในฐานะตัวแทนที่อ่านเอกสาร แก้ไขชุดข้อมูล รันงาน และจัดส่งโมเดล MLสัญญาณที่แท้จริงไม่ใช่ความเป็นอิสระเพียงอย่างเดียว เป็นเอกราชที่ตรวจสอบได้
พื้นที่เก็บข้อมูล GitHub อธิบายว่า ml-intern เป็นวิศวกร ML แบบโอเพ่นซอร์สที่สามารถค้นคว้า เขียน และจัดส่งโค้ดที่เกี่ยวข้องกับ ML โดยใช้เอกสาร Hugging Face เอกสาร ชุดข้อมูล งาน การค้นหา GitHub และเครื่องมือในเครื่องหรือแซนด์บ็อกซ์ README ยังเปิดเผยโครงสร้างลูปโดยตรง: ลูปการส่ง เราเตอร์เครื่องมือ ตัวจัดการบริบท การอนุมัติ และตัวตรวจจับ doom-loop สำหรับรูปแบบเครื่องมือที่ซ้ำกัน
นั่นคือสิ่งที่ผู้สร้างชิ้นส่วนควรใส่ใจ การสาธิต “นักวิจัย AI” แบบปิดนั้นน่าสนใจเป็นเวลาหนึ่งสัปดาห์ พื้นฐานเวิร์กโฟลว์แบบเปิดมีประโยชน์มานานหลายปี ด้วย ml-intern Hugging Face แสดงให้เห็นว่างานหลังการฝึกอบรมสามารถแสดงเป็นระบบตัวแทนที่ทำซ้ำได้ แทนที่จะเป็นลูกโซ่การส่งต่อระหว่างบันทึกการวิจัย สมุดบันทึก ชุดข้อมูล สคริปต์ และงานบนคลาวด์
สัญญาณการกระจายแรงกว่าที่เห็น
โปรเจ็กต์นี้ไม่ได้เป็นเพียงพื้นที่เก็บข้อมูลเท่านั้น นอกจากนี้ Hugging Face ยังจัดส่งพื้นที่สาธารณะและผลักดันการเปิดตัวผ่าน Product Hunt โดยที่สำเนาการเปิดตัวเน้นการอ่านกระดาษ การซ่อมแซมชุดข้อมูล การปฏิบัติงานฝึกอบรม และผลประโยชน์ที่ได้รับจากการวัดประสิทธิภาพจำนวนมาก ณ วันที่ 26 เมษายน repo GitHub แสดงดาว 6.7,000 ดวงและส้อม 611 อัน ซึ่งเป็นสัญญาณเริ่มต้นที่แข็งแกร่งผิดปกติสำหรับเครื่องมือ ML เวิร์กโฟลว์ที่หนักหน่วง
นั่นสำคัญเพราะเครื่องมือตัวแทนแพร่กระจายผ่านสิ่งประดิษฐ์ที่ตรวจสอบได้และทางแยกที่ง่ายดาย เมื่อทีมสามารถโคลน Repo ได้ สลับผู้ให้บริการโมเดล ชี้ลูปไปที่ชุดข้อมูลของตนเอง และรันคำสั่งแบบไม่มีส่วนหัว เช่น ml-intern "fine-tune llama on my dataset"ผลิตภัณฑ์หยุดเป็นเพียงการแสดงและเริ่มทำตัวเหมือนโครงสร้างพื้นฐาน
เหตุใดจึงมีความสำคัญมากกว่าทีมฝึกอบรมโมเดล
ผู้อ่าน TRH ไม่จำเป็นต้องฝึกอบรมโมเดลชายแดนเพื่อเรียนรู้จากสิ่งนี้ รูปแบบที่สำคัญคือ Hugging Face เปลี่ยนเวิร์กโฟลว์หลายขั้นตอนที่ยุ่งเหยิงให้กลายเป็นระบบตัวแทนระดับเฟิร์สคลาสด้วยเครื่องมือที่ชัดเจน การอนุมัติ ขีดจำกัดการวนซ้ำ และการบีบอัด นั่นคือการเคลื่อนไหวเชิงโครงสร้างแบบเดียวกับที่ปรากฏขึ้น ตัวแทนโค้ดผู้ตรวจสอบรายแรก, สายรัดตัวแทนและ CLI ของเอเจนต์ที่เน้นการปรับใช้
หากทีมของคุณเป็นเจ้าของกระบวนการที่เกิดซ้ำซึ่งผสมผสานการค้นหา การตัดสิน การดำเนินการ และการประเมินเข้าด้วยกัน คุณควรคิดในรูปแบบเดียวกัน คำถามไม่ใช่ว่า “ตัวแทนสามารถทำทุกอย่างได้หรือไม่” คำถามคือ “ส่วนใดของลูปที่สามารถทำให้ชัดเจน ตรวจสอบได้ และราคาถูกในการรันซ้ำ”
จะทำอย่างไรกับสัญญาณนี้
ทำการวิจัยภายในหรือ Ops Loop แล้วจัดทำแผนที่เหมือนผลิตภัณฑ์ตัวแทน กำหนดเครื่องมือ กำหนดขอบเขตการอนุมัติ กำหนดการประเมินที่จะตัดสินว่าการลองใหม่นั้นคุ้มค่าหรือไม่ กำหนดว่าเมื่อใดที่ลูปจะต้องหยุดและส่งงานให้กับมนุษย์ จากนั้นจึงนำเครื่องมือวัดต้นทุน Hugging Face แสดงให้เห็นอย่างมีประสิทธิภาพว่าระนาบควบคุมมีความสำคัญพอๆ กับโมเดล
ทีมที่รวบรวมเครื่องมืออย่าง ml-intern จะเป็นทีมที่ดำเนินการลูป ไม่ใช่ทีมที่ชื่นชมเฉพาะการสาธิตเท่านั้น