Isi kandungan:

Bagaimanakah anda menyediakan model TensorFlow?
Bagaimanakah anda menyediakan model TensorFlow?

Video: Bagaimanakah anda menyediakan model TensorFlow?

Video: Bagaimanakah anda menyediakan model TensorFlow?
Video: Установка Tensorflow. Создание нейронной сети. FMNIST. Распознавание изображений. Python 2024, Mungkin
Anonim

Untuk menyediakan model Tensorflow , hanya eksport SavedModel daripada anda Aliran tensor program. SavedModel ialah format bersiri neutral bahasa, boleh dipulihkan, hermetik yang membolehkan sistem dan alatan peringkat lebih tinggi untuk menghasilkan, menggunakan dan mengubah Model TensorFlow.

Sehubungan itu, bagaimanakah saya menjalankan model TensorFlow?

Ini adalah langkah-langkah yang akan kami lakukan:

  1. Jadikan model bodoh sebagai contoh, latih dan simpan.
  2. Ambil pembolehubah yang anda perlukan daripada model tersimpan anda.
  3. Bina maklumat tensor daripada mereka.
  4. Buat tandatangan model.
  5. Buat dan simpan pembina model.
  6. Muat turun imej Docker dengan sajian TensorFlow sudah disusun padanya.

Selain itu, apakah perkhidmatan TensorFlow? TensorFlow Serving adalah fleksibel, berprestasi tinggi menghidangkan sistem untuk model pembelajaran mesin, direka untuk persekitaran pengeluaran. TensorFlow Serving menyediakan integrasi di luar kotak dengan TensorFlow model, tetapi boleh diperluaskan dengan mudah kepada hidang jenis model dan data lain.

Mengenai ini, bagaimanakah perkhidmatan TensorFlow berfungsi?

TensorFlow Serving membolehkan kami memilih versi model atau "boleh dihidangkan" yang ingin kami gunakan apabila kami membuat permintaan inferens. Setiap versi akan dieksport ke sub-direktori yang berbeza di bawah laluan yang diberikan.

Apakah pelayan model?

Pelayan Model untuk Apache MXNet (MMS) ialah komponen sumber terbuka yang direka untuk memudahkan tugas melaksanakan pembelajaran mendalam model untuk inferens pada skala. Mengerahkan model kerana inferens bukanlah tugas yang remeh.

Disyorkan: