Publicado por Brahim Elbouchikhi, gerente de Producto

En el mundo vertiginoso de hoy, las personas esperan que las apps para dispositivos móviles sean inteligentes, se adapten a la actividad de los usuarios o los deleiten con sorprendentes funciones inteligentes. Como consecuencia, creemos que el aprendizaje automático se convertirá en una herramienta esencial en el desarrollo para dispositivos móviles. Por ello, el martes en Google I/O, presentamos el kit ML en versión beta: un nuevo SDK que acerca la experiencia de Google en materia de aprendizaje automático a los desarrolladores para dispositivos móviles a través de un paquete potente y fácil de usar en Firebase. ¡El entusiasmo nos desborda!


Aprendizaje automático para todos los niveles de habilidad


Dar los primeros pasos en el aprendizaje automático puede ser difícil para muchos desarrolladores. Generalmente, los nuevos desarrolladores de ML pasan incontables horas aprendiendo las complejidades de la implementación de modelos de bajo nivel, usando marcos de trabajo, etc. Aun en el caso de un experto avanzado, adaptar y optimizar modelos para que funcionen en dispositivos móviles puede ser un desafío enorme. Además de las complejidades del aprendizaje automático, la provisión de datos de preparación puede ser un proceso costoso y demandar mucho tiempo, en especial al considerar un público a escala mundial.

Con el kit ML, puedes usar aprendizaje automático para compilar características atractivas, en Android e iOS, independientemente de tu experiencia en aprendizaje automático. ¡Más detalles a continuación!

Listo para producción para casos de uso comunes


Si eres principiante y quieres avanzar, el kit ML te ofrece cinco API (“básicas”) listas para usar que abordan casos de uso comunes en dispositivos móviles:
  • Reconocimiento de texto
  • Detección de rostros
  • Escaneo de códigos de barras
  • Etiquetado de imágenes
  • Reconocimiento de puntos de referencia

Con estas API básicas, simplemente se pasan datos al kit ML y se recibe una respuesta intuitiva. Por ejemplo: Lose It!, uno de nuestros primeros usuarios, utilizó el kit ML para compilar varias funciones en la última versión de su app para controlar calorías. Al usar la API basada en reconocimiento de texto y un modelo de compilación personalizado, la app puede capturar rápidamente información nutricional de las etiquetas de productos para ingresar el contenido de un alimento a partir de una imagen.



El kit ML te proporciona API en el dispositivo y en la nube, todo en una interfaz común y sencilla, lo que te permite elegir las que mejor se adapten a tus requisitos. Las API en el dispositivo procesan datos rápidamente y funcionarán aunque no haya conexión de red, mientras las API basadas en la nube aprovechan el poder de la tecnología de aprendizaje automático de Google Cloud Platform para proporcionar mayor un nivel de precisión.

Consulta estas API en acción en tu Firebase console:



Aviso: Estamos planeando lanzar dos API más en los próximos meses. La primera es una API de respuesta inteligente que admite respuestas de mensajería contextual en tu app, y la segunda es una adición de contorno de rostro de alta densidad a la API de detección de rostro. ¡Regístrate aquí para probarlas!

Implementar modelos personalizados


Si tienes experiencia en aprendizaje automático y no encuentras una API básica que contemple tu caso de uso, el kit ML te permite implementar tus propios modelos de TensorFlow Lite. Simplemente debes cargarlos a través de Firebase console; nosotros nos ocuparemos de alojarlos y proporcionarlos a los usuarios de tu app. De esta manera, puedes mantener tus modelos fuera de tu APK o conjuntos, lo que reduce el tamaño de instalación requerido por tu app. Además, debido a que el kit ML funciona dinámicamente en tu modelo, siempre puedes actualizar el modelo sin tener que volver a publicar tus apps.

Pero hay más. A medida que las apps se desarrollaron para ampliar sus funciones, el tamaño también aumentó; esto afectó los índices de instalación desde la tienda de aplicaciones y posiblemente implique mayores costos para los usuarios ante excesos de datos. El aprendizaje automático puede acentuar esta tendencia, ya que los modelos pueden llegar a ocupar decenas de megabytes. Por eso decidimos invertir en la compresión de modelos. Específicamente, estamos experimentando con una función que te permite cargar un modelo de TensorFlow completo, junto con datos de preparación, y recibir un modelo TensorFlow Lite comprimido. La tecnología que hace posible esto evoluciona rápidamente, y estamos buscando algunos desarrolladores que la prueben y nos envíen comentarios. Si estás interesado, regístrate aquí.

Mejor junto con otros productos Firebase


Debido a que el kit ML está disponible a través de Firebase, te resultará fácil aprovechar toda la plataforma Firebase. Por ejemplo, Remote Config y las pruebas A/B te permiten experimentar con varios modelos personalizados. Puedes cambiar valores de forma dinámica en tu app, lo cual representa una excelente opción para alternar al instante los modelos personalizados que quieras que usen tus usuarios en el momento. Incluso, puedes crear segmentos de población y experimentar con varios modelos en paralelo.

Entre otros ejemplos se incluye lo siguiente:

¡Comienza a usarlas!


Queremos ver las compilaciones que harás con el kit ML. Esperamos que te guste el producto tanto como a nuestros primeros clientes:



Visita hoy mismo tu Firebase console para empezar a usar la versión beta del kit ML. Si tienes ideas o comentarios, no dudes en comunicarte con nosotros. ¡Siempre esperamos comentarios!