รูปแบบที่กำหนดเอง

หากคุณเป็นนักพัฒนาซอฟต์แวร์ ML ที่มีประสบการณ์ และโมเดลที่สร้างไว้ล่วงหน้าของ ML Kit ยังไม่ตรงกับความต้องการของคุณ คุณสามารถใช้โมเดล TensorFlow Lite ที่กำหนดเองร่วมกับ ML Kit ได้

โฮสต์โมเดล TensorFlow Lite โดยใช้ Firebase หรือจัดแพ็กเกจเหล่านั้นกับแอป จากนั้นใช้ ML Kit SDK เพื่อทำการอนุมานโดยใช้โมเดลที่กำหนดเองเวอร์ชันที่ดีที่สุดที่มีอยู่ หากคุณโฮสต์โมเดลของคุณด้วย Firebase ML Kit จะอัปเดตผู้ใช้ด้วยเวอร์ชันล่าสุดโดยอัตโนมัติ

iOS Android

ความสามารถที่สำคัญ

โฮสติ้งโมเดล TensorFlow Lite โฮสต์โมเดลโดยใช้ Firebase เพื่อลดขนาดไบนารีของแอปและดูแลให้แอปใช้โมเดลเวอร์ชันล่าสุดที่มีอยู่เสมอ
การอนุมาน ML ในอุปกรณ์ ทำการอนุมานในแอป iOS หรือ Android โดยใช้ ML Kit SDK เพื่อเรียกใช้โมเดล TensorFlow Lite ที่กำหนดเอง โมเดลนี้รวมอยู่ในชุดแอป โฮสต์ในระบบคลาวด์ หรือทั้ง 2 อย่างก็ได้
รูปแบบสำรองอัตโนมัติ ระบุแหล่งที่มาของโมเดลหลายรายการ และใช้โมเดลที่เก็บไว้ในเครื่องเมื่อโมเดลที่โฮสต์ในระบบคลาวด์ไม่พร้อมใช้งาน
การอัปเดตรูปแบบอัตโนมัติ กำหนดค่าเงื่อนไขที่แอปจะดาวน์โหลดโมเดลเวอร์ชันใหม่โดยอัตโนมัติ: เมื่ออุปกรณ์ของผู้ใช้ไม่มีการใช้งาน กำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi

เส้นทางการใช้งาน

ฝึกโมเดล TensorFlow สร้างและฝึกโมเดลที่กำหนดเองโดยใช้ TensorFlow หรือฝึกโมเดลที่มีอยู่อีกครั้งซึ่งแก้ปัญหาที่คล้ายกับเป้าหมายที่คุณต้องการบรรลุผล โปรดดู คู่มือนักพัฒนาซอฟต์แวร์ของ TensorFlow Lite
แปลงโมเดลเป็น TensorFlow Lite แปลงโมเดลจากรูปแบบ TensorFlow มาตรฐานเป็น TensorFlow Lite ด้วยการตรึงกราฟ แล้วใช้ TensorFlow Optimize Converter (TOCO) โปรดดู คู่มือนักพัฒนาซอฟต์แวร์ของ TensorFlow Lite
โฮสต์โมเดล TensorFlow Lite ด้วย Firebase ไม่บังคับ: เมื่อคุณโฮสต์โมเดล TensorFlow Lite กับ Firebase และใส่ SDK ของ ML Kit ไว้ในแอป ML Kit จะช่วยให้ผู้ใช้ได้รับข้อมูลอัปเดต ด้วยโมเดลเวอร์ชันล่าสุดอยู่เสมอ คุณสามารถกำหนดค่า ML Kit ให้ดาวน์โหลดการอัปเดตโมเดลโดยอัตโนมัติเมื่ออุปกรณ์ของผู้ใช้ไม่มีการใช้งานหรือกำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi
ใช้โมเดล TensorFlow Lite สำหรับการอนุมาน ใช้ API โมเดลที่กำหนดเองของ ML Kit ในแอป iOS หรือ Android เพื่อทำการอนุมานกับโมเดลที่โฮสต์โดย Firebase หรือโมเดลแพ็กเกจแอป