FunctionGemma โมเดล AI สำหรับอุปกรณ์ขนาดเล็กจาก Google
ท่ามกลางกระแสการแข่งขันในวงการ AI อันร้อนแรง Google ก็เปิดตัว FunctionGemma โมเดลรุ่นใหม่ที่มีจุดเด่นในด้านมีขนาดเล็ก พร้อมรองรับการแปลงภาษาพูดของเราให้กลายเป็นคำสั่งสำหรับสั่งงานโปรแกรมภายในระบบ เพื่อนำมาใช้งานในอุปกรณ์ปลายทางได้อย่างมีประสิทธิภาพ
ปัจจุบันโมเดลที่ใช้งานเป็นโมเดลขนาดใหญ่มีขีดความสามารถรอบด้าน แต่การใช้งานต้องทำการส่งข้อมูลไปสู่เซิร์ฟเวอร์ผ่านอินเทอร์เน็ต จึงอาจไม่เหมาะกับข้อมูลความละเอียดอ่อนสูง ต้องพึ่งพาอินเทอร์เน็ตตลอดเวลาจนขาดความคล่องตัว ทั้งยังมีต้นทุนการใช้งานสูง จนอาจไม่เหมาะกับการใช้งานระยะยาว
FunctionGemma จึงเป็นโมเดลที่ออกแบบมาเพื่อแก้ข้อจำกัดหล่านั้น ด้วยขนาดเพียง 270 ล้านพารามิเตอร์ เป็นโมเดล SLM ที่เน้นความเสถียรในการใช้งานบนอุปกรณ์ขนาดเล็ก เหมาะสำหรับการใช้ประมวลผลบนสมาร์ทโฟนทั่วไปหรืออุปกรณ์ IOT ที่ไม่ต้องการขีดความสามารถที่ซับซ้อน
จุดเด่นสำคัญคือ โมเดลสามารถประมวลผลและสั่งการทั้งระบบให้จบภายในเครื่อง โดยไม่ต้องส่งข้อมูลภายนอกได้อย่างรวดเร็วโดยแทบไม่มีความหน่วง พร้อมสามารถถ่ายทอดคำสั่งไปยังซอฟต์แวร์ภายในระบบได้ในระดับความแม่นยำถึง 85% ในขณะที่โมเดลขนาดเล็กทั่วไปจะมีความแม่นยำอยู่ที่ 58% เท่านั้น
นี่จึงเป็นโมเดลขนาดเล็กที่เหมาะอย่างยิ่งสำหรับใช้ในอุปกรณ์ทั่วไป เช่น สมาร์ทโฟน อุปกรณ์ IOT ไปจนหุ่นยนต์ทั้งหลาย ในกรณีที่เผชิญคำถามและเนื้อหางานที่ซับซ้อนเกินไป ก็อาจส่งต่อข้อมูลและคำสั่งไปยังโมเดลตัวใหญ่ที่อยู่ภายนอก ช่วยให้โมเดลสามารถทำงานเรียบง่ายได้ดีด้วยต้นทุนที่น้อยลง
ปัจจุบันแม้ FunctionGemma ไม่ได้เปิดเป็นโอเพนซอร์ส แต่ก็สามารถเข้าถึงและนำไปใช้งานได้โดยไม่มีค่าใช้จ่าย
ที่มา
https://blog.google/technology/developers/functiongemma/