Tabla de contenido:

¿Cómo sirve un modelo de TensorFlow?
¿Cómo sirve un modelo de TensorFlow?

Video: ¿Cómo sirve un modelo de TensorFlow?

Video: ¿Cómo sirve un modelo de TensorFlow?
Video: ¿QUÉ ES TENSORFLOW? ¿CÓMO FUNCIONA? | #5 Módulos de Inteligencia Artificial 2024, Mayo
Anonim

Con el fin de servir un modelo de Tensorflow , simplemente exporte un modelo guardado desde su Tensorflow programa. SavedModel es un formato de serialización hermético, recuperable y neutral en cuanto al lenguaje que permite que los sistemas y herramientas de nivel superior produzcan, consuman y transformen Modelos de TensorFlow.

En consecuencia, ¿cómo ejecuto un modelo de TensorFlow?

Estos son los pasos que vamos a realizar:

  1. Haga un modelo estúpido como ejemplo, entrénelo y guárdelo.
  2. Obtenga las variables que necesita de su modelo almacenado.
  3. Construye la información del tensor a partir de ellos.
  4. Crea la firma del modelo.
  5. Cree y guarde un constructor de modelos.
  6. Descargue una imagen de Docker con TensorFlow que ya se haya compilado en ella.

Además, ¿qué ofrece TensorFlow? Publicación de TensorFlow es un flexible, de alto rendimiento servicio sistema para modelos de aprendizaje automático, diseñado para entornos de producción. Publicación de TensorFlow proporciona una integración lista para usar con TensorFlow modelos, pero se puede ampliar fácilmente a atender otros tipos de modelos y datos.

Con respecto a esto, ¿cómo funciona el servicio TensorFlow?

Publicación de TensorFlow nos permite seleccionar qué versión de un modelo o "servible" queremos usar cuando hacemos solicitudes de inferencia. Cada versión se exportará a un subdirectorio diferente en la ruta indicada.

¿Qué es un servidor modelo?

Servidor de modelos para Apache MXNet (MMS) es un componente de código abierto diseñado para simplificar la tarea de implementar el aprendizaje profundo modelos para inferencia a escala. Despliegue modelos porque la inferencia no es una tarea trivial.

Recomendado: