En épocas en que las empresas recurren, cada vez más, a la nube pública para compilar y ejecutar sus aplicaciones, herramientas como la Forrester Public Cloud Development Platform Wave se han convertido en un medio importante para que los programadores evalúen y comparen funcionalidades en diferentes proveedores de servicios en la nube.




En épocas en que las empresas recurren, cada vez más, a la nube pública para compilar y ejecutar sus aplicaciones, herramientas como la Forrester Public Cloud Development Platform Wave se han convertido en un medio importante para que los programadores evalúen y comparen funcionalidades en diferentes proveedores de servicios en la nube.

Hoy, Forrester reconoció a Google Cloud como líder en su informe The Forrester Wave: Full-Stack Public Cloud Development Platforms, Norteamérica, T2, 2018. Creemos que este reconocimiento refleja nuestro compromiso con la creación de una nube mejor, que te permita desarrollar alternativas innovadoras y también ofrecer productos y servicios excelentes y más rápidos a tus usuarios finales.

En su informe, Forrester destacó seis puntos fuertes claves de Google Cloud. A continuación, te ofrecemos más información sobre esas áreas y lo que significan para ti.

1. Inversiones en infraestructura global.


Como Forrester plantea en su informe, “Google Cloud invierte más al año en infraestructura global que prácticamente cualquier otra plataforma en la nube”. Durante los últimos tres años, Google ha expandido la superficie de su infraestructura global con un gasto de capital acumulativo de USD 30,9 mil millones. Esto incluye la adición de nuevos centros de datos, puntos de presencia y redes de fibra óptica para conectar a los clientes de Google Cloud de manera confiable y segura en todo el mundo.

2. Una plataforma completamente administrada sin servidores.


Forrester comenta que una creciente cantidad de empresas reconocen nuestra ambición de “ser líderes en las plataformas sin servidores”. La informática sin servidores elimina la preocupación de mantener la infraestructura subyacente, escalar instancias o pagar por anticipado recursos que tal vez no se necesiten. La plataforma completamente administrada sin servidores de GPC te permite compilar aplicaciones completas sin servidores mediante servicios como App Engine, Cloud Functions, Datastore y Machine Learning Engine. Las funciones como implementaciones sin configuración, ajuste de escala automático, administración sin servidores y división de tráfico te permiten concentrarte en compilar aplicaciones excelentes sin la carga de administrarlas.

3. Maximización de la productividad del programador.


El informe de Forrester también hace referencia a nuestra meta de reducir la fricción del desarrollo nativo en la nube, lo que maximiza la productividad del programador con infraestructura sin configuración, un compromiso demostrado con el código abierto, y servicios completamente administrados. Queremos restar ansiedad del desarrollo de la aplicación y, al mismo tiempo, proporcionar una experiencia de usuario convincente. Esto significa que puedes aportar tus lenguajes, tiempos de ejecución, bibliotecas y marcos de trabajo a GCP o elegir uno de los lenguajes populares que admitimos de forma automática. Nuestras ofertas de integración continua e implementación continua (CI/CD) te permiten pasar de la fuente a la compilación, la prueba y la implementación sin inconvenientes, independientemente de que ejecutes implementaciones en varias nubes o clústeres en las instalaciones, o en GCP.

4. Datos y servicios de aprendizaje automático sólidos.


Cada vez es mayor el número de clientes empresariales tradicionales que adoptan nuestros servicios de aprendizaje automático, y Forrester tomó nota de ello. Nos esforzamos mucho para ampliar tanto como fuera posible el acceso a los datos, la información analítica y la inteligencia, motivo por el cual GCP te permite combinar servicios en la nube con herramientas de código abierto, según sea necesario. Los datos comparativos de aprendizaje profundo mostraron que el servicio del aprendizaje automático de GCP se destaca en el rendimiento y la precisión del entrenamiento. Además, los clientes de GPC confían en los mismos servicios y la misma infraestructura de aprendizaje automático que usamos internamente para las aplicaciones principales de Google, como Gmail, YouTube y Fotos.

5. Precios transparentes.


El informe de Forrester indica que los precios de GPC “responden completamente al uso y son transparentes”. Nos hemos esforzado por hacer que nuestros precios sean lo más accesibles posible. Ofrecemos características como el descuento por uso continuo, la facturación por segundo, tipos de máquina personalizados y descuento por compromiso de uso para ayudarte a aprovechar al máximo tus recursos. Además, no hay costos que debas pagar por adelantado ni gastos de terminación, de modo que no te complicarás con contratos a largo plazo ni configuraciones que ya no necesites. Debido a nuestra escala, a la eficiencia y a la estructura de descuentos, el costo de GCP puede ser hasta un 50% inferior al de otros proveedores de servicios en la nube para muchos casos de uso computados.1

6. El ecosistema de GCP.


En su informe, Forrester indica que nuestro ecosistema de socios se ha ampliado notablemente en los últimos dos años. Nuestras asociaciones globales con empresas como SAP, Red Hat, Pivotal, Gitlab e IBM representan una manera importante de brindar servicio a nuestros clientes, y continuaremos sumando nuevas sociedades y expandiendo las existentes en los próximos meses.

Valoramos los comentarios, independientemente de que provengan de organizaciones como Forrester o de usuarios cotidianos. A continuación, se ofrecen algunos que recibimos de nuestros clientes.
Google ofrece actualmente la mejor opción sin servidores. Teníamos nuestras reservas con Google, pero hasta ahora ha funcionado bien”. 
Nick Rockwell, director de Tecnología, New York Times

“No necesitamos esforzarnos para obtener una respuesta, ya que Google hace gran parte del trabajo pesado y el escalamiento con los datos”.
Paul Clarke, director de Tecnología, Ocado 

“Con la ayuda de Google Cloud Platform, estamos cambiando el modelo comercial básico de venta de artículos de iluminación a los clientes”. 
George Yianni, director de Tecnología, Sistemas para el hogar, Philips Lighting

“La transición a Google Cloud Platform nos ayudó a lanzar rápidamente nuevos servicios y funciones para un mercado cambiante”. 
Garrett Plasky, director de Operaciones técnicas, Evernote 
Puedes descargar el informe completo Forrester Public Cloud Development Platform Wave, T2, 2018 aquí. Para obtener más información sobre GCP, visita nuestro sitio web y regístrate para acceder a una prueba gratis.


1 Combinación de diferencias de precios de lista, descuentos automáticos por uso continuo y recomendaciones de tamaño correcto.





Últimamente, hemos trabajado a toda velocidad en nuestros productos de voz de IA de Cloud. El mes pasado ...




Últimamente, hemos trabajado a toda velocidad en nuestros productos de voz de IA de Cloud. El mes pasado, presentamos Cloud Text-to-Speech, nuestra API de sintetización de voz con modelos WaveNet de DeepMind. Hoy anunciamos la revisión más grande de Cloud Speech-to-Text (antes conocida como Cloud Speech API) desde su introducción, hace dos años.

Primero presentamos la Cloud Speech API en 2016, que ya ha estado disponible de manera generalizada durante casi un año y cada seis meses experimenta duplicaciones en sus índices de uso. Hoy, con la inauguración de las conferencias NAB y SpeechTek, presentaremos nuevas características y actualizaciones que, a nuestro entender, convertirán a Speech-to-Text en una herramienta mucho más útil para empresas; entre otras, la transcripción de llamadas y video.

Cloud Speech-to-Text ahora incluye:

  1. Una selección de modelos previamente compilados para mejorar la precisión de la transcripción de llamadas y videos.
  2. Puntuación automática para mejorar la legibilidad de la transcripción de audio de formato largo.
  3. Un mecanismo nuevo (metadatos de reconocimiento) para etiquetar y agrupar tus cargas de trabajo de transcripción y proporcionar comentarios al equipo de Google.
  4. Un Acuerdo de nivel de servicio (ANS) estándar con un compromiso de disponibilidad del 99,9%.

Observemos con mayor detalle las nuevas actualizaciones de Cloud Speech-to-Text.

Nuevos modelos de transcripción de video y llamadas


Existen muchas maneras diferentes de usar la tecnología de reconocimiento de voz, desde la interacción entre el hombre y la computadora (p. ej., comandos por voz o IVR) hasta el análisis de voz (p. ej., datos analíticos de centros de atención telefónica). En esta versión de Cloud Speech-to-Text, agregamos modelos orientados a casos de uso específicos; p. ej., transcripciones de llamadas telefónicas y transcripciones de audio de video.
Por ejemplo, para procesar llamadas telefónicas, enrutamos las solicitudes de llamadas telefónicas entrantes en inglés de los EE. UU. a un modelo optimizado para administrar llamadas telefónicas, y muchos clientes consideran que es la mejor herramienta de su clase en el sector. Hoy ofrecemos a los clientes el poder de elegir explícitamente el modelo que prefieran en lugar de depender de la selección de modelo automática.

La mayoría de los principales proveedores de servicios en la nube usan datos de voz de solicitudes entrantes para mejorar sus productos. En Google Cloud, hemos evitado esta práctica. Sin embargo, los clientes solicitan con frecuencia que, para mejorar nuestros modelos, usemos datos reales que representen los suyos. Queremos cumplir con esta solicitud sin perder de vista la privacidad y el cumplimiento de nuestras políticas de protección de los datos. Por eso, hoy implementaremos uno de los primeros programas optativos de la industria para el registro de datos, y presentamos un primer modelo basado en estos datos: enhanced phone_call.

Desarrollamos el modelo enhanced phone_call usando datos de clientes que los compartieron de forma voluntaria con Cloud Speech-to-Text para mejorar el modelo. Los clientes que elijan participar en el programa en el futuro obtendrán acceso a este y otros modelos mejorados a partir de datos de los clientes. El modelo enhanced phone_call tiene un 54 % menos de errores que nuestro modelo basic phone_call para nuestro conjunto de pruebas de llamadas telefónicas.
Además, también presentaremos el modelo video, que se optimizó para procesar audio de videos o audio con varios altavoces. El modelo video usa tecnología de aprendizaje automático similar a la que usa el subtitulado de YouTube, y presenta un 64 % menos de errores en comparación con nuestro modelo predeterminado en un conjunto de pruebas de video.

Tanto el modelo enhanced phone_call como el modelo premium video ahora están disponibles para transcripción en inglés de EE. UU. y pronto esta disponibilidad se extenderá a otros idiomas. También continuamos ofreciendo nuestros modelos existentes para voz command_and_search y nuestro modelo default para transcripción de formato largo.
Mira la demostración en nuestro sitio web del producto para cargar un archivo de audio y ver los resultados de la transcripción de cada uno de estos modelos.

Genera texto legible con puntuación automática


La mayoría de nosotros sabemos usar puntuación básica (comas, puntos y signos de interrogación, entre otros elementos) cuando terminamos la escuela primaria. Pero transcribir voz con la puntuación correcta es difícil. En Google, supimos lo dificultoso que esto puede ser desde nuestros primeros intentos de transcribir mensajes de buzones de voz, de los cuales surgían oraciones continuas muy difíciles de leer.
Hace unos años, desde Google comenzamos a proporcionar puntuación automática con nuestro servicio de transcripción de buzón de voz de Google Voice. Recientemente, el equipo creó una nueva red neuronal LSTM para mejorar la puntuación automática en transcripciones de voz de formato largo. Diseñado con el rendimiento en mente, el modelo en versión beta ya está disponible en Cloud Speech-to-Text, y es capaz de sugerir automáticamente comas, signos de interrogación y puntos para tu texto.

Describe tus casos de uso con metadatos de reconocimiento


El avance que hemos logrado con Cloud Speech-to-Text se debe en gran parte a los comentarios recibidos durante los últimos dos años, y queremos expandir aún más las vías de comunicación con metadatos de reconocimiento. Ahora puedes describir tu audio o video transcripto con etiquetas como “comandos por voz para una app de compras” o “programas televisivos de baloncesto”. Luego, nosotros agregamos esa información entre los usuarios de Cloud Speech-to-Text para priorizar lo que haremos a continuación. Proporcionar metadatos de reconocimiento aumenta la probabilidad de que tu caso de uso mejore con el tiempo, pero el programa es totalmente opcional.

Referencias de clientes

Estamos muy entusiasmados con esta nueva versión de Cloud Speech-to-Text, pero no te fíes solo de lo que decimos nosotros; a continuación, se muestran opiniones de nuestros clientes.
“Los datos no estructurados, como el audio, están llenos de información importante, pero para muchas empresas resulta complicado encontrar aplicaciones que faciliten la extracción de valor de ese formato y su administración. Descript facilita la edición y visualización de archivos de video, como en el caso de un documento. Elegimos potenciar nuestra aplicación con Google Cloud Speech-to-Text. De acuerdo con nuestras pruebas, es la tecnología de reconocimiento de voz más avanzada, y el nuevo modelo video tiene menos de la mitad de los errores en comparación con cualquier otro modelo que hayamos considerado. A su vez, gracias a su modelo de precios simple, podemos ofrecer los mejores precios a nuestros usuarios”.  
Andrew Mason, director ejecutivo, Descript
“GoToMeeting de LogMeIn proporciona software colaborativo a millones de usuarios de todo el mundo. Apuntamos siempre a la mejor experiencia del cliente, y después de evaluar varias soluciones para permitir que nuestros usuarios transcriban reuniones, descubrimos que el nuevo modelo video de Cloud Speech-to-Text de Google es mucho más preciso que cualquier otra solución analizada. Nos entusiasma la posibilidad de extender la colaboración con Google más allá de la reunión y trabajar juntos a fin de generar valor para nuestros clientes con la adición de transcripción de grabaciones de GoToMeeting”. 
 – Matt Kaplan, gerente general de Producto, Productos colaborativos de LogMeIn
“En InteractiveTel, hemos utilizado Cloud Speech-to-Text desde el comienzo para optimizar nuestros productos de transcripción y análisis de llamadas telefónicas en tiempo real. La capacidad que Google tiene de aportar mejoras rápidas a las características y al rendimiento nos maravilla constantemente, pero nos impactan los resultados que obtuvimos con el nuevo modelo phone_call. El simple cambio al nuevo modelo phone_call supuso para nosotros mejoras superiores al 64 % en términos de precisión en comparación con otros proveedores, y del 48% en comparación con el modelo genérico de banda angosta de Google”.  
 Jon Findley, ingeniero principal de Producto, InteractiveTel
El acceso a tecnología de transcripción de voz de alta calidad abre un mundo de posibilidades para las compañías que desean conectarse con sus usuarios y aprender de ellos. Con esta actualización de Cloud Speech-to-Text, puedes acceder a las últimas investigaciones de nuestro equipo de expertos en aprendizaje automático, todo a través de una simple REST API. El precio es de USD 0,006 por 15 segundos de audio para todos los modelos, a excepción del modelo video, que cuesta $0.012 por 15 segundos. Ofreceremos el nuevo modelo video por el mismo precio (USD 0,006 por 15 segundos) durante un período de prueba limitado hasta el 31 de mayo. Para obtener más información, prueba nuestra demostración en la página del producto o visita nuestra documentación.



Originalmente publicado por Sandeep Gupta, Gerente de producto de TensorFlow, en representación del equipo de TensorFlow para el Blog de TensorFlow.
El 30 de marzo, realizamos la segunda ...


Originalmente publicado por Sandeep Gupta, Gerente de producto de TensorFlow, en representación del equipo de TensorFlow para el Blog de TensorFlow.
El 30 de marzo, realizamos la segunda TensorFlow Developer Summit en el Museo de la Historia de la Computación en Mountain View, California. El evento reunió a más de 500 usuarios de TensorFlow en persona y a miles de personas que se sumaron a la transmisión en vivo en los eventos de TensorFlow en todo el mundo. El día estuvo repleto de anuncios de productos nuevos, además de charlas técnicas con el equipo de TensorFlow y conferenciantes invitados. A continuación, se muestran los aspectos destacados del evento:

El aprendizaje automático está resolviendo problemas desafiantes que afectan a todos en todo el mundo. Los problemas cuya resolución antes creíamos imposible o demasiado compleja hoy pueden resolverse con esta tecnología. Con TensorFlow, ya hemos visto grandes avances en muchos campos diferentes. Por ejemplo:

Nos entusiasma ver estas aplicaciones increíbles de TensorFlow y nos comprometemos con el objetivo de lograr que esté disponible para más desarrolladores. Por eso nos complace anunciar nuevas actualizaciones de TensorFlow que ayudarán a mejorar la experiencia de los desarrolladores.

Estamos simplificando el uso de TensorFlow.


Los investigadores y desarrolladores desean una forma más sencilla de usar TensorFlow. Integraremos un modelo de programación más intuitivo para desarrolladores de Python llamado eager execution, que elimina la distinción entre la construcción y la ejecución de gráficos de cálculo. Puedes realizar desarrollos con eager execution y luego usar el mismo código, a fin de generar el gráfico equivalente para la preparación a escala con la API de alto nivel Estimator. También anunciaremos un nuevo método para ejecutar modelos de Estimator en varios GPU en el mismo equipo. Esto permite que los desarrolladores puedan escalar rápidamente sus modelos con cambios de código mínimos.

A medida que los modelos de aprendizaje automático se vuelven más abundantes y complejos, queremos hacer más sencillos el uso compartido, la reutilización y la depuración de estos para los desarrolladores. A fin de ayudar a los desarrolladores a compartir y reutilizar modelos, anunciamos TensorFlow Hub, una biblioteca compilada para fomentar la publicación y el descubrimiento de módulos (piezas independientes del gráfico de TensorFlow) que se pueden volver a utilizar en tareas similares. Los módulos contienen ponderaciones que se han preparado previamente en grandes conjuntos de datos y pueden volver a prepararse en tus aplicaciones. Al reutilizar un módulo, un desarrollador puede preparar un modelo utilizando un conjunto de datos más pequeño, mejorar la generalización o simplemente acelerar la preparación. Para facilitar los modelos de depuración, también lanzaremos un nuevo complemento de depuración gráfico interactivo como parte de la herramienta de visualización de TensorBoard que te ayudará a inspeccionar y recorrer los nodos internos de un gráfico de cómputo en tiempo real.

El entrenamiento del modelo es solo una parte del proceso de aprendizaje automático, y los desarrolladores necesitan una solución que funcione de manera integral para compilar sistemas de aprendizaje automático reales. Con este propósito, anunciaremos el mapa de ruta para TensorFlow Extended (TFX) junto con el lanzamiento de TensorFlow Model Analysis, una biblioteca de código abierto que combina la solidez de TensorFlow y Apache Beam para computar y visualizar métricas de evaluación. Los componentes de TFX que se han lanzado hasta el momento (como TensorFlow Model Analysis, TensorFlow Transform, Estimators y TensorFlow Serving) se integran perfectamente y permiten a los desarrolladores preparar datos, preparar, validar e implementar modelos de TensorFlow en producción.

TensorFlow está disponible en más lenguajes y plataformas


Además de facilitar el uso de TensorFlow, estamos anunciando que los desarrolladores pueden usar TensorFlow en nuevos lenguajes. TensorFlow.js es un nuevo marco de trabajo de aprendizaje automático para desarrolladores de JavaScript. El aprendizaje automático en el navegador a través de TensorFlow.js abre nuevas y fantásticas posibilidades. Esto incluye aprendizaje automático interactivo y compatibilidad ante situaciones en las que todos los datos permanecen del lado del cliente. Se puede utilizar para compilar y preparar módulos por completo en el navegador, e importar modelos TensorFlow y Keras entrenados sin conexión para inferencia con aceleración WebGL. El juego Emoji Scavenger Hunt es un ejemplo divertido de una aplicación compilada con TensorFlow.js.

También tenemos novedades emocionantes para programadores de Swift: TensorFlow for Swift será de código abierto desde abril. TensorFlow for Swift no es tu vinculación de lenguaje típica para TensorFlow. Integra compatibilidad con lenguajes y compiladores de primera clase, lo que proporciona toda la potencia de los gráficos con la usabilidad de eager execution. El proyecto aún se encuentra en desarrollo y pronto anunciaremos más actualizaciones.

También compartimos las últimas actualizaciones de TensorFlow Lite, la solución multiplataforma ligera de TensorFlow para la implementación de modelos de aprendizaje automático preparados en dispositivos móviles y otros dispositivos de punta. Además de la compatibilidad existente con Android e iOS, anunciaremos la compatibilidad con Raspberry Pi, más compatibilidad con operaciones y modelos (se incluyen operaciones personalizadas), y describiremos la forma en que los desarrolladores pueden usar TensorFlow Lite fácilmente en sus propias aplicaciones. El intérprete principal de TensorFlow Lite actualmente ocupa solo 75 KB (frente a 1,1 MB de TensorFlow) y estamos observando aumentos de velocidad que llegan hasta 3 veces cuando se ejecutan modelos de clasificación de imágenes cuantificados en TensorFlow Lite, en comparación con TensorFlow.

Para la compatibilidad con elementos de hardware, TensorFlow ahora ofrece integración con TensorRT de NVIDIA. TensorRT es una biblioteca que optimiza los modelos de aprendizaje profundo para inferencia; también crea un tiempo de ejecución para la implementación en GPU en entornos de producción. Aporta algunas optimizaciones a TensorFlow y selecciona automáticamente kernels específicos de plataformas para maximizar el rendimiento y minimizar la latencia durante la inferencia en GPU.

Para los usuarios que usan TensorFlow en CPU, nuestra asociación con Intel ha permitido la integración con una biblioteca Intel MKL-DNN de código abierto altamente optimizada para el aprendizaje profundo. Al utilizar Intel MKL-DNN, observamos una aceleración de la inferencia de hasta 3 veces en varias plataformas de CPU Intel.

La lista de plataformas en las que funciona TensorFlow se amplió e incluye Cloud TPU, que se lanzaron en versión beta el mes pasado. El equipo de Google Cloud TPU ya logró un fuerte incremento de 1,6 veces en el rendimiento de ResNet-50 desde su lanzamiento. Estas mejoras estarán disponibles próximamente para los usuarios de TensorFlow con la versión 1.8.

Disponibilidad de nuevas aplicaciones y dominios usando TensorFlow


Muchos problemas de análisis de datos se resuelven usando métodos estadísticos o probabilísticos. Además de los modelos de aprendizaje profundo y redes neuronales, TensorFlow ahora ofrece métodos de vanguardia para análisis bayesiano a través de la TensorFlow Probability API. Esta biblioteca contiene componentes fundamentales, como distribuciones de probabilidad, métodos de ejemplo y nuevas métricas y pérdidas. También aumentó la compatibilidad de muchos otros métodos clásicos de aprendizaje automático. A modo de ejemplo, los árboles de decisión optimizados se pueden preparar e implementar fácilmente usando clases prediseñadas de alto nivel.

El aprendizaje automático y TensorFlow ya han ayudado a resolver problemas desafiantes en muchos campos diferentes. Otra área en la que observamos que TensorFlow tiene un gran impacto es la genómica; por ello, lanzaremos Nucleus, una biblioteca destinada a la lectura, escritura y filtración de formatos de archivo comunes en genómica para la aplicación en TensorFlow. Junto con DeepVariant, una herramienta de código abierto basada en TensorFlow para el descubrimiento de variantes del genoma, esto ayudará a ampliar la investigación y los avances en genómica.

Expansión de la participación y los recursos comunitarios


Estas actualizaciones de TensorFlow apuntan a beneficiar y expandir la comunidad de usuarios y colaboradores, los miles de personas responsables de que TensorFlow sea uno de los marcos de trabajo de aprendizaje automático más populares del mundo. Para que continúes participando en la comunidad y estés al tanto de las novedades de TensorFlow, lanzamos el nuevo blog oficial de TensorFlow y el canal de YouTube TensorFlow. También haremos más sencilla la colaboración para nuestra comunidad lanzando nuevas listas de distribución y grupos de interés especiales diseñados para respaldar el trabajo de código abierto en proyectos específicos. Para saber cómo formar parte de la comunidad, visita la página de la comunidad de TensorFlow y, como siempre, puedes seguir a TensorFlow en Twitter para recibir novedades.

Agradecemos a todos los que ayudaron a convertir a TensorFlow en un marco de trabajo de aprendizaje automático exitoso en los últimos dos años. Gracias por seguirnos de manera presencial y remota. Recuerda usar #MadeWithTensorFlow para compartir tus soluciones a problemas impactantes y desafiantes con el aprendizaje automático y TensorFlow.




Publicado por Josh Yellin, líder global, Launchpad Accelerator

Durante los últimos cinco años, Launchpad ha conectado startups de todo el mundo con lo mejor de Google: su gente, la red, las metodologías y las tecnologías. Trabajamos con líderes del mercado, incluidos ...



Publicado por Josh Yellin, líder global, Launchpad Accelerator

Durante los últimos cinco años, Launchpad ha conectado startups de todo el mundo con lo mejor de Google: su gente, la red, las metodologías y las tecnologías. Trabajamos con líderes del mercado, incluidos BrainQ (Israel), Flutterwave (Nigeria), Jumo (Sudáfrica), Nestaway (India) y Nubank (Brasil), potenciando su desarrollo sostenible mediante programas personalizados en implementación de IA y AA, prácticas recomendadas de liderazgo y acceso a capital global.


Puesto que buscamos respaldar mejor los ecosistemas de startups en regiones claves, nos emociona ampliar Launchpad Accelerator a través de iniciativas independientes nuevas. Luego del encuentro inicial Yossy Matias, vicepresidente de Google, con startups en Tel Aviv, presentamos aceleradores en esta ciudad de Israel, en Lagos (Nigeria) y en San pablo (Brasil). Estos aceleradores regionales representan nuestro compromiso a largo plazo de respaldar a nuestros ecosistemas de startups en todo el mundo y aprender de ellos.

En Tel Aviv, estamos trabajando con startups de aprendizaje automático. La primera clase fue en marzo, con cuatro startups de AA centradas en soluciones tecnológicas para el ámbito de la atención médica. Si quieres sumarte a nuestra próxima clase, puedes encontrar más información aquí.

En Lagos, trabajamos con empresas en etapa de gestación que están resolviendo una variedad de problemas relacionados con el mercado. Nuestra primera clase, que también comenzó en marzo, incluye 12 startups concentrados en comercio electrónico, educación y cadenas de suministros. Obtén más información sobre el programa Launchpad Africa aquí.

En San pablo, trabajaremos con compañías en etapa de desarrollo que operan en diferentes sectores. La inscripción para la primera clase está actualmente abierta y comenzará en mayo de 2018. Si deseas presentar una solicitud, hazlo aquí.

Continuaremos ofreciendo un programa en San Francisco para startups globales muy importantes en etapa de desarrollo. Al sumar aceleradores en regiones claves, podemos diseñar programas más personalizados, desarrollar relaciones más estrechas con nuestros socios en el área y respaldar el crecimiento de los ecosistemas de startups locales.


Recibe novedades sobre desarrollos y futuras oportunidades suscribiéndote al boletín informativo de Google Developers.


Chris Oryschak
Gerente de producto

El año pasado, lanzamos la versión beta de Cloud Functions para Firebase con el objetivo de ayudarte a compilar funcionalidad de backend para tu app sin preocuparte por tener que administrar servidores. Te permite escribir en JavaScript o Typescript, realizar implementaciones en la infraestructura de nube de Google y llevar a cabo ejecuciones en respuesta a eventos de apps. Hoy nos complace ...

Chris Oryschak
Gerente de producto

El año pasado, lanzamos la versión beta de Cloud Functions para Firebase con el objetivo de ayudarte a compilar funcionalidad de backend para tu app sin preocuparte por tener que administrar servidores. Te permite escribir en JavaScript o Typescript, realizar implementaciones en la infraestructura de nube de Google y llevar a cabo ejecuciones en respuesta a eventos de apps. Hoy nos complace lanzar la versión 1.0 del SDK de Cloud Functions para Firebase junto con mejoras nuevas, frecuentemente solicitadas, para el desarrollo, la prueba y el control de Functions.

Lo que ofrece Cloud Functions para Firebase


El Firebase SDK para Google Cloud Functions te permite ofrecer otros productos de Firebase y brindar a los usuarios las funciones que necesitan en tus apps. Posse, la empresa desarrolladora de la app Hamilton y una de nuestras primeras clientas, necesitaba crear un sistema de lotería que diera a los fans una posibilidad de ganar entradas para la inmensamente popular obra de Broadway, sin la carga de tener que administrar sus propios servidores. Cuando un usuario ingresa a la lotería, se ejecuta lógica con tecnología de Functions en la nube y los resultados se almacenan directamente en Cloud Firestore. Los resultados de la lotería se transfieren automáticamente a la app móvil Hamilton y a todos sus fans con buena suerte.


Posse también necesitaba escalar la app Hamilton. Cuando la lotería se abre, el uso de la app puede multiplicarse súbitamente y normalizarse unos minutos más tarde. Functions aplica escalamiento automáticamente sin requerir ninguna acción de Posse y su cliente solo paga por los recursos que utiliza.

Además de usar Functions para las loterías de entradas, Posse también lo utilizó a fin de integrar otros productos de Firebase para:
  • Automatizar la creación de perfiles de usuario con Firebase Auth
  • Enviar notificaciones push con Firebase Cloud Messaging
  • Redimensionar automáticamente fotos de los usuarios con Cloud Storage
  • Procesar pagos en la app usando Stripe a través de webhooks HTTP

Functions te ofrece muchas posibilidades. Para acceder a más casos de uso y ejemplos de código, consulta nuestro popular repositorio de GitHub.

La versión v1.0 que lanzamos hoy incluye varias funciones nuevas que están basadas en comentarios recibidos y te contamos lo más relevante.

SDK para clientes móviles


Una de las principales solicitudes que recibimos tuvo que ver con un método sencillo para llamar directamente a Functions desde tus apps cliente. Para simplificar esto, agregamos un nuevo tipo de función, junto con SDK para clientes de iOS, Android y web. El nuevo tipo es una función Callable HTTPS que administra una solicitud HTTPS desde el SDK del cliente. Las funciones Callable HTTPS reducen drásticamente la cantidad de código estándar que debes escribir para realizar solicitudes HTTPS a Functions.

Funciona de la siguiente manera:
  1. Primero, escribe una función Callable HTTPS que acepte un objeto de datos del cliente. La función muestra otro objeto de datos al cliente.
  2. Luego, en tu app para dispositivos móviles, debes usar el SDK del cliente para invocar la función. El SDK del cliente controla la conexión HTTPS y serializa automáticamente los objetos de datos entrantes y salientes. En la solicitud, el SDK incluirá un token de ID de usuario de Firebase Authentication si hay una sesión de usuario iniciada. También se incluye un token de ID de instancia, utilizado por Firebase Cloud Messaging.

Para obtener más información, lee nuestros documentos.

Prueba de unidades simplificada


Si bien el shell de Functions te dio la posibilidad de interactuar con tus funciones a nivel local, no fue la opción óptima para escribir pruebas de unidades como las que se ejecutan en un sistema de IC. Por ello, lanzamos un nuevo módulo nmp firebase-functions-test que simplifica la escritura de pruebas de unidades. firebase-functions-test se encarga de las configuraciones necesarias y del desmontaje, lo que facilita la simulación de los datos de prueba. Ahora puedes escribir pruebas completamente sin conexión y sin efectos secundarios, o pruebas que interactúen con un proyecto de desarrollo en Firebase, donde podrás observar el éxito de las acciones, como la escritura de la base de datos.

Asistencia oficial para la emulación de funciones


El otoño pasado, presentamos la capacidad de emular tus funciones localmente mediante Firebase CLI con los comandos “firebase serve --only functions” y “firebase experimental:functions:shell”. Estas eran funciones experimentales, y ahora las admitimos oficialmente. “firebase experimental:functions:shell” cambió su nombre por “firebase functions:shell”, y “firebase serve” emulará todas las funciones HTTPS de forma predeterminada, sin la necesidad de usar el indicador “--only”.

Herramientas de supervisión mejoradas


Después de implementar funciones, quizá te preguntes: “¿Qué está ocurriendo con mis funciones? ¿Cómo funcionando mi app? ¿Hay algo dañado?” Con el lanzamiento de hoy, puedes mantenerte informado sobre los errores en tus funciones a través del nuevo monitor de mantenimiento:

Además, puedes realizar un seguimiento del rendimiento, de la latencia y del uso de memoria de tus funciones:
 

Actualizaciones de API

Las API para escribir Cloud Functions con el Firebase SDK cambiaron en esta versión v1.0 del SDK. Esto significa que para realizar la actualización al nuevo SDK se requerirán algunas actualizaciones en los códigos que hayas escrito en la versión beta. No te preocupes, esto no afecta las funciones que ya hayas implementado. Para obtener información sobre los cambios y sobre cómo adaptarte al nuevo formato, simplemente sigue nuestra guía de migración.

Primeros pasos con Cloud Functions para Firebase

Si recién comienzas a usar los Firebase SDK para Cloud Functions, sigue nuestro Codelab paso a paso y consulta la documentación. También se ofrece un tutorial en video que te ayudará a comenzar a usar TypeScript como lenguaje de programación recomendado.


Esperamos que estas nuevas funciones te resulten útiles. Recuerda: Cloud Functions para Firebase todavía está disponible en versión beta. ¡No te pierdas las novedades!



Publicado por Michael Hermanto, Ingeniero de software, Firebase
Lanzamos Google URL Shortener en 2009 como una alternativa para que las personas pudieran compartir vínculos y medir el tráfico en línea más fácilmente. Desde entonces, han surgido muchos servicios populares de acortamiento de URL y también han cambiado notablemente las formas en las que las personas buscan contenido en Internet; lo que antes se hacía principalmente desde páginas web de equipos de escritorio hoy se hace desde apps, dispositivos móviles, asistentes en el hogar y otras alternativas.


Publicado por Michael Hermanto, Ingeniero de software, Firebase
Lanzamos Google URL Shortener en 2009 como una alternativa para que las personas pudieran compartir vínculos y medir el tráfico en línea más fácilmente. Desde entonces, han surgido muchos servicios populares de acortamiento de URL y también han cambiado notablemente las formas en las que las personas buscan contenido en Internet; lo que antes se hacía principalmente desde páginas web de equipos de escritorio hoy se hace desde apps, dispositivos móviles, asistentes en el hogar y otras alternativas.

Para volver a enfocar nuestros esfuerzos, dejaremos de admitir goo.gl en las próximas semanas y lo reemplazaremos por Firebase Dynamic Links (FDL). Los FDL son URL inteligentes que te permiten dirigir a los usuarios existentes y potenciales a cualquier ubicación en una app para iOS, Android o la Web. Estamos entusiasmados por desarrollar y mejorar el producto en el futuro. Si bien la mayoría de las funciones de goo.gl serán obsoletas con el tiempo, todos los vínculos existentes continuarán proporcionando redireccionamiento hacia el destino previsto.

Para consumidores


A partir del 13 de abril de 2018, los usuarios anónimos y los usuarios que nunca hayan creado vínculos cortos antes de hoy no podrán crear nuevos vínculos cortos a través de la consola de goo.gl. Si quieres crear nuevos vínculos cortos, te recomendamos utilizar Firebase Dynamic Links o probar servicios populares como Bitly y Ow.ly, a modo de alternativa.

Si tienes vínculos cortos de goo.gl, podrás seguir usando todas las funciones de la consola de goo.gl durante un año, hasta el 30 de marzo de 2019, fecha en que la discontinuaremos. Durante este período, puedes administrar todos tus vínculos cortos y sus datos analíticos a través de la consola de goo.gl.

Después del 30 de marzo de 2019, todos los vínculos continuarán proporcionando redireccionamiento hacia el destino previsto. Tus vínculos cortos existentes no se migrarán a la Firebase console; no obstante, podrás exportar la información de tu vínculo desde la consola de goo.gl.

Para programadores


A partir del 30 de mayo de 2018, solo se podrán crear vínculos cortos a través de los proyectos que hayan accedido a URL Shortener API antes de hoy. Para crear nuevos vínculos cortos, te recomendamos FDL API. Los vínculos cortos creados con FDL detectarán automáticamente la plataforma del usuario y lo dirigirán a la web o a tu app, según corresponda.

Si ya llamas a URL Shortener API para administrar vínculos cortos de goo.gl, puedes continuar usándolas durante un año, hasta el 30 de marzo de 2019, fecha en que discontinuaremos las API.

Al igual que para los consumidores, todos los vínculos continuarán proporcionando redireccionamiento hacia el destino previsto después del 30 de marzo de 2019. No obstante, los vínculos cortos existentes no se migrarán a la Firebase console y API.

El acortador de URL ha sido una excelente herramienta de la que nos enorgullecemos. De cara al futuro, nos entusiasman las posibilidades de Firebase Dynamic Links, especialmente en relación con la detección de plataformas dinámicas y los vínculos que persisten tras el proceso de instalación de la app. ¡Esperamos que sientas el mismo entusiasmo!





Con Cloud Endpoints, nuestro servicio de compilación, implementación y administración de API en ...




Con Cloud Endpoints, nuestro servicio de compilación, implementación y administración de API en Google Cloud Platform (GCP), puedes concentrarte en la lógica y el diseño de tu API, y nuestro equipo se ocupa del resto. Hoy expandimos ese “resto” y anunciamos nuevos portales para desarrolladores en los cuales estos podrán aprender a interactuar con tu API.

Los portales para desarrolladores son lo primero que ven los usuarios cuando intentan usar tu API, y representan una oportunidad para responder muchas de sus preguntas: ¿Cómo evalúo la API? ¿Cómo obtengo código que llame a la API? Y tú, el desarrollador de la API, ¿cómo mantienes actualizada esta documentación mientras tu API se desarrolla y cambia con el paso del tiempo?

En un caso que resulta muy similar al de la autorización, la limitación de la velocidad y la supervisión, sabemos que prefieres concentrarte en tu API en lugar de la documentación. Creemos que debería ser fácil presentar un portal para desarrolladores personalizado con tu marca y contenido, y que debería ser mínimo el esfuerzo para mantener su contenido actualizado.

A continuación, te mostramos un ejemplo de un portal para desarrolladores en el caso de Swagger Petstore (YAML):

El portal incluye, de izquierda a derecha, la lista de métodos y recursos, y las páginas personalizadas que agregó el desarrollador de la API, detalles sobre el método específico de la API y una herramienta interactiva para probar la API en el momento.

Si ya usas Cloud Endpoints, puedes comenzar a crear portales para desarrolladores de inmediato si te registras para esta versión Alfa. El portal estará siempre actualizado; las especificaciones que ingreses con gcloud también se insertan en el portal para desarrolladores. Desde el portal, puedes explorar la documentación, probar las API de forma interactiva junto con los documentos y compartir el sitio con tu equipo. Puedes publicar tu dominio personalizado, para lo que proporcionamos un certificado SSL, y agregar tus propias páginas para elementos de contenido, como instructivos y guías. Lo mejor probablemente sea que este portal funciona de inmediato con gRPC y OpenAPI, por lo que tus documentos estarán siempre actualizados, independientemente del tipo de API que uses.

Comunícate con nuestro equipo si quieres probar los portales para desarrolladores de Cloud Endpoints. Tus comentarios nos ayudarán a dar forma al producto y priorizar nuevas características en los próximos meses.





Muchos productos Google (p. ej., Asistente de Google, Búsqueda y Maps) tienen una síntesis de texto a voz integrada de alta calidad que produce el sonido de una voz natural. Los desarrolladores nos han indicado varias veces que les gustaría poder agregar una función de texto a voz en sus aplicaciones, y hoy incorporamos esta tecnología a ...




Muchos productos Google (p. ej., Asistente de Google, Búsqueda y Maps) tienen una síntesis de texto a voz integrada de alta calidad que produce el sonido de una voz natural. Los desarrolladores nos han indicado varias veces que les gustaría poder agregar una función de texto a voz en sus aplicaciones, y hoy incorporamos esta tecnología a Google Cloud Platform con Cloud Text-to-Speech.

Puedes usar Cloud Text-to-Speech de varias formas. Por ejemplo:
  • Para potenciar sistemas de respuesta por voz para centros de atención telefónica (IVR) y mejorar las conversaciones en lenguaje natural en tiempo real. 
  • Para permitir respuestas de dispositivos IoT (p. ej., TV, vehículos y robots). 
  •  Para convertir medios basados en texto (p. ej., artículos informativos y libros) al formato oral (p. ej., podcasts o audiolibros).
Cloud Text-to-Speech te permite elegir 32 voces diferentes en 12 idiomas y dialectos. Cloud Text-to-Speech pronuncia correctamente texto complejo, como nombres, fechas, horas y direcciones de inmediato con sonido de voz auténtica. Cloud Text-to-Speech te permite personalizar el tono, la velocidad de articulación y el volumen, y admite diferentes formatos de audio, como MP3 y WAV.

DeepMind entra en escena


Además, nos complace anunciar que Cloud Text-to-Speech también incluye una selección de voces de alta fidelidad compiladas usando WaveNet, un modelo generativo para audio sin formato creado por DeepMind. WaveNet sintetiza un sonido de voz más natural y, en general, produce un sonido de voz que las personas prefieren antes que otras tecnologías de texto a voz.

A fines de 2016, DeepMind presentó la primera versión de WaveNet, una red neuronal preparada con una gran cantidad de muestras de voz que puede crear formas de onda de audio sin formato desde cero. Durante la preparación, la red extrae la estructura de la voz subyacente; por ejemplo, los tonos que se suceden y la forma de onda que debe tener una onda de voz real. Cuando se le proporciona texto, el modelo preparado de WaveNet genera las formas de onda de voz correspondientes, de a una muestra por vez; de esta manera, logra mayor precisión que los enfoques alternativos.

Avanzando rápidamente hasta la actualidad, hoy usamos una versión actualizada de WaveNet que se ejecuta en infraestructura de Cloud TPU de Google. El modelo mejorado de WaveNet genera ondas sin formato 1000 veces más rápido que el modelo original y puede generar un segundo de voz en solo 50 milisegundos. De hecho, el modelo no solo es más rápido, sino también ofrece mayor fidelidad y es capaz de crear formas de onda con 24 000 muestras por segundo. También aumentamos la resolución de cada muestra de 8 bits a 16 bits, lo que produce un audio de mayor calidad y resonancia más humana.
Con estos ajustes, el nuevo modelo de WaveNet produce un sonido de voz más natural. En las pruebas, las personas dieron a las nuevas voces de WaveNet en inglés estadounidense una nota media de opinión (MOS) de 4,1 en una escala de 1 a 5; la mejoría respecto de las voces estándares superó el 20% y se redujo la diferencia con la voz humana en más de un 70%. Teniendo en cuenta que las voces de WaveNet también requieren menos grabaciones de audio para producir modelos de alta calidad, esperamos continuar mejorando la variedad y la calidad de las voces de WaveNet disponibles para los clientes de Cloud en los próximos meses.
Cloud Text-to-Speech ya está ayudando a muchos clientes a proporcionar una mejor experiencia a sus usuarios finales. Entre estos clientes, se incluyen Cisco y Dolphin ONE.
“Como proveedor líder de soluciones de colaboración, Cisco tiene una larga trayectoria de incorporación de los últimos avances tecnológicos a la empresa. Cloud Text-to-Speech de Google nos ha permitido lograr la calidad de sonido natural que desean nuestros clientes”.  
 Tim Tuttle, CTO de Colaboración cognitiva, Cisco
“La plataforma de telefonía Calll.io de Dolphin ONE ofrece conectividad desde una gran variedad de dispositivos, prácticamente en cualquier lugar. Integramos Cloud Text-to-Speech a nuestros productos y permitimos que nuestros usuarios creen experiencias de atención telefónica naturales. Con las herramientas de aprendizaje automático de Google Cloud proporcionamos, al instante, tecnología de punta a nuestros usuarios”. 
Jason Berryman, Dolphin ONE

Comienza hoy


Con Cloud Text-to-Speech, solo deberás hacer unos clics para acceder a una de las tecnologías de voz más avanzadas del mundo. Para obtener más información, consulta la documentación o nuestra página de precios. Para dar los primeros pasos con nuestro beta público o probar las voces nuevas, visita el sitio web de Cloud Text-to-Speech.



Publicado por Jamal Eason, gerente de Producto, Android
Nos complace anunciar que Android Studio 3.1 ya se puede descargar en el canal de versiones estables. Las áreas de enfoque para esta versión tienen que ver con la calidad del producto y la productividad en el desarrollo de apps. Además de los diferentes cambios de calidad subyacentes, agregamos varias funciones nuevas a Android Studio 3.1 que les recomendamos integrar a sus flujos de desarrollo.


Publicado por Jamal Eason, gerente de Producto, Android
Nos complace anunciar que Android Studio 3.1 ya se puede descargar en el canal de versiones estables. Las áreas de enfoque para esta versión tienen que ver con la calidad del producto y la productividad en el desarrollo de apps. Además de los diferentes cambios de calidad subyacentes, agregamos varias funciones nuevas a Android Studio 3.1 que les recomendamos integrar a sus flujos de desarrollo.

Una de las nuevas funciones de Android Studio 3.1 es un generador de perfiles de rendimiento C++ que ayudará a resolver cuellos de botella de rendimiento en el código de sus apps. Para quienes tengan una base de datos Room o SQLite en sus apps, mejoramos la compatibilidad con el editor de código a fin de ayudarlos con sus declaraciones de creación de consultas y tablas SQL. También mejoramos la compatibilidad con lint para su código Kotlin y aceleramos su capacidad de prueba a través de un Android Emulator actualizado con Quick Boot. Si alguna de estas funciones les parece interesante o están esperando la próxima versión estable de Android Studio, descarguen Android Studio 3.1 hoy mismo.

A continuación, podrán ver la lista de funciones nuevas en Android Studio 3.1, organizadas por flujos de desarrolladores claves.
Novedades de Android Studio 3.1

Desarrollo

  • Comprobaciones de Lint en Kotlin: desde que anunciamos la compatibilidad oficial con el lenguaje Kotlin el año pasado en la plataforma Android, continuamos centrando el esfuerzo en la compatibilidad con el lenguaje Kotlin en Android Studio. En Android Studio 3.1, mejoramos las comprobaciones de calidad de código Lint, de modo que ahora podrán ejecutarlas mediante la línea de comandos y el IDE. Simplemente, abran un proyecto de Android Studio y ejecuten gradlew lint a través de la línea de comandos. Más información.
Comprobaciones de Lint en Kotlin mediante la línea de comandos
  • Edición de código de base de datos: editar código integrado de bases de datos SQL y Room en sus proyectos Android ahora es mucho más fácil con Android Studio 3.1. Esta versión incluye compleción de código SQL en sus declaraciones @Query, una mejor refactorización de declaraciones SQL y navegación de código SQL en sus proyectos. Más información.
Compleción de código de base de datos Room
  • Actualización de la plataforma IntelliJ: en Android Studio 3.se 1 incluye la versión de la plataforma IntelliJ 2017.3.3, que posee muchas características nuevas, como nuevas intenciones de lenguaje Kotlin y compatibilidad integrada con la vista previa de imágenes SVG. Más información.

Compilación

  • Compilador Dex D8: en Android Studio 3.1, D8 pasó a ser el compilador dex predeterminado. En reemplazo del compilador DX heredado, la conversión a dex de D8 es un paso de compilación técnico del APK que reduce el tamaño de sus apps, permite la depuración precisa y, en muchos casos, hace posibles compilaciones más rápidas. Asegúrense de que sus gradle.properties no tengan el indicador android.enableD8. Si lo tienen, asegúrense de que se fije en true. Más información.
  • Nueva ventana de resultados de compilación: Android Studio 3.1 tiene una ventana de resultados de compilación actualizada que organiza el estado de la compilación y los errores en una vista de árbol nueva. Este cambio también incluye los resultados de Gradle heredados en esta nueva ventana. Más información.
Nueva ventana de resultados de compilación

Prueba

  • Quick Boot: Quick Boot permite reanudar la sesión de Android Emulator en menos de 6 segundos. La lentitud del inicio de Android Emulator estuvo entre las principales quejas que recibimos de ustedes y Quick Book soluciona este problema. Al igual que un dispositivo Android físico, el emulador debe realizar un primer inicio en frío, pero los inicios posteriores son rápidos. La características está habilitada de forma predeterminada para todos los dispositivos virtuales de Android. Además, en esta versión tendrán más control respecto del momento en que deben usar Quick Boot y de la capacidad de guardar el estado de Quick Boot a pedido en la página de configuración del emulador. Más información sobre otras características principales de Android Emulator.
Configuración de Quick Boot a pedido
  • Imágenes de sistema y máscaras para dispositivos sin marco: la última versión de Android Emulator es compatible con Google Play Store y Google API en imágenes de sistema para emuladores de API 24 (Nougat) a 27 (Oreo), y en la P Developer Preview. Además, las máscaras para emuladores de dispositivos se actualizaron para funcionar en un nuevo modo sin marcos, lo que puede ayudarlos a probar sus apps con proporciones de pantalla de 18:9 o con las DisplayCutout API de la Android P Developer Preview. Más información.
Modo de ventana sin marcos en Android Emulator

Optimización

  • Generación de perfiles de CPU C++: el año pasado, con Android Studio 3.0, lanzamos un nuevo conjunto de generadores de perfiles de Android para medir la CPU, la memoria y la actividad de red en sus apps. Con Android Studio 3.1, además de generar perfiles de rendimiento del código de sus apps en lenguaje Kotlin y Java, ahora pueden generar un perfil del código C++ en estas. Usando simpleperf como backend, el generador de perfiles C++ les permite registrar seguimientos del método C++. Más información.
C++ CPU Profiler
  • Actualizaciones de Network Profiler: Subprocesos y solicitudes de red; a fin de contribuir al análisis del tráfico de red de sus apps, agregamos una nueva vista Network Thread para inspeccionar tráfico de red multiproceso, y también agregamos una nueva pestaña Network Request para examinar las solicitudes de red con el tiempo. Con estas actualizaciones del Network Profiler, dispondrán de más herramientas para realizar un seguimiento del tráfico de red desde cada subproceso y solicitud de red hasta la pila de llamadas de la red. Más información.
Network Profiler con compatibilidad con subprocesos

Para resumir, Android Studio 3.1 incluye estas nuevas características importantes:

Desarrollo
  • Comprobaciones de Lint en Kotlin
  • Edición de código de base de datos
  • Actualización de la plataforma IntelliJ

Compilación
  • Compilador Dex D8
  • Nueva ventana de resultados de compilación

Prueba y depuración
  • Quick Boot para Android Emulator
  • API 27 con imágenes de sistema de Google Play para Emulator
  • Modo de ventana sin marco para Android Emulator

Optimización
  • Generador de perfiles C++
  • Network Profiler: Compatibilidad con subprocesos
  • Network Profiler: Compatibilidad con solicitudes

Para obtener más información, consulten las notas de la versión.

Primeros pasos


Descarga

Si están usando una versión anterior de Android Studio, pueden actualizar a Android Studio 3.1 hoy o descargar la actualización de la página de descarga oficial de Android Studio.

Agradeceremos cualquier comentario en los que se incluyan aspectos que les agraden, errores o características que deseen ver. Si encuentran un problema o error, no duden en notificarlo. Pueden conectarse con nosotros, el equipo de desarrollo de Android Studio, en nuestra página de Google+ o en Twitter.










El panorama de los juegos para dispositivos móviles está cambiando a medida que más y más estudios desarrollan juegos de realidad aumentada. Para poder combinar realidades, los desarrolladores primero deben comprender el mundo real; en entorno físico que rodea a sus jugadores. Por eso nos entusiasma anunciar una nueva posibilidad de crear juegos reales usando el modelo comprobado del mundo de Google Maps.



El panorama de los juegos para dispositivos móviles está cambiando a medida que más y más estudios desarrollan juegos de realidad aumentada. Para poder combinar realidades, los desarrolladores primero deben comprender el mundo real; en entorno físico que rodea a sus jugadores. Por eso nos entusiasma anunciar una nueva posibilidad de crear juegos reales usando el modelo comprobado del mundo de Google Maps.

Los estudios de juegos pueden reimaginar fácilmente nuestro mundo como una fantasía medieval, una tierra de caramelos sabor a chicle globo o una ciudad posapocalíptica infectada por zombis. Con las actualizaciones en tiempo real y la gran disponibilidad de datos de ubicación de Google Maps, los desarrolladores pueden encontrar las mejores prácticas para jugar juegos, independientemente de dónde se encuentren sus jugadores.


Personaliza por completo tus juegos

Para que te resulte más fácil comenzar, integramos la riqueza de Google Maps al motor de juegos Unity. Convertimos los edificios, las calles y los parques en GameObjects en Unity, donde los desarrolladores luego pueden agregar textura, estilo y personalización para ajustarlos a la apariencia de sus juegos. Esto significa que pueden concentrarse en compilar juegos inmersivos con gran cantidad de edificios sin la carga de tener que generar un mundo de juego a escala global.

“Con la integración de datos de Google Maps en Unity, podemos concentrar nuestro tiempo y energía en crear experiencias virtuales detalladas para que nuestros usuarios encuentren dinosaurios virtuales en el mundo real” - Alexandre Thabet, director ejecutivo, Ludia


Crea experiencias inmersivas en todo el planeta

Los desarrolladores de juegos ahora tendrán acceso a un modelo amplio, preciso y real del mundo que podrán usar como base para sus mundos de juego. Con acceso a más de 100 millones de edificios, calles, monumentos y parques 3D de más de 200 países, podrán proporcionar una experiencia de juego detallada y atractiva en todo el planeta.

“Nos entusiasma asociarnos con Google para brindar los datos de ubicación más actualizados y detallados que nos permitirán crear una experiencia inmersiva asociada a tu ubicación. Cuando se construyan nuevos edificios o carreteras, tendremos acceso a ellos en nuestro juego. Los datos de ubicación siniguales de Google Maps, que abarcan monumentos, empresas y edificios mundialmente famosos como la estatua de la libertad, la torre Eiffel, London Eye, Burj Khalifa y la puerta de la India, hacen que la experiencia de explorar tus alrededores sea espectacular”, comentó Teemu Huuhtanen, director ejecutivo, Next Games


Diseña juegos detallados y atractivos en el mundo real

Diseñar interacciones en sitios del mundo real a escala global es un desafío inmenso y requiere mucho conocimiento del entorno del jugador. Facilitamos la búsqueda de lugares adecuados, placenteros y divertidos para jugar; independientemente de dónde se encuentren tus jugadores.

“Crear interacciones para juegos en sitios del mundo real a escala global y buscar lugares relevantes para los usuarios y divertidos donde jugar es una tarea desafiante. Las Google Maps API nos ayudaron a incorporar las ubicaciones del mundo real relevantes para los usuarios en nuestro juego. Usuarios de todo el mundo pueden experimentar el mundo virtual de Ghostbusters a través de nuestro juego, aprovechando los datos de ubicación de Google”, HAN Sung Jin, director ejecutivo, FourThirtyThree Inc.(4:33)


Ofrece experiencias de juego en todo Google

Compilar con base en la infraestructura global de Google Maps significa tiempos de respuesta más rápidos, la capacidad de escalar según la demanda y la tranquilidad de saber que tu juego funcionará.

Estamos entusiasmados con traer lo mejor de Google a los juegos para dispositivos móviles. Todos nuestros socios con acceso anticipado aprovecharon ARCore para comprender mejor el entorno del usuario y llegar a más de 100 millones de dispositivos en todo el ecosistema. En Google, tenemos más productos que ayudarán a los desarrolladores; desde Google Cloud para las necesidades del servidor de juego hasta YouTube y Google Play para promoción, y más.

Exhibiremos una demostración en vivo en la Conferencia de desarrolladores de juegos, en el stand 823, la semana próxima en San Francisco. Si estás interesado en crear experiencias de juego en el mundo real, visita nuestra página web o comunícate con el sector de ventas.





Si desarrollas aplicaciones en Google Cloud Platform (GCP), probablemente dediques mucho tiempo a la línea de comando de GCP. Y a medida que ampliamos nuestros servicios de GPC, la cantidad de comandos e indicadores aumenta a pasos agigantados. Por eso hoy presentamos una nueva interfaz de línea de comando (CLI) que te permite descubrir, y usar, todos estos comandos de forma más eficiente ...




Si desarrollas aplicaciones en Google Cloud Platform (GCP), probablemente dediques mucho tiempo a la línea de comando de GCP. Y a medida que ampliamos nuestros servicios de GPC, la cantidad de comandos e indicadores aumenta a pasos agigantados. Por eso hoy presentamos una nueva interfaz de línea de comando (CLI) que te permite descubrir, y usar, todos estos comandos de forma más eficiente: gcloud interactive.

El Google Cloud SDK ofrece una variedad de herramientas de línea de comando para interactuar con GCP, como estas:

  • gcloud: la CLI principal de GCP 
  • gsutil: CLI para interactuar con Google Cloud Storage 
  • bq: CLI para interactuar con Google BigQuery 
  • kubectl: CLI de Kubernetes Engine

Actualmente, en la prueba pública alfa, el nuevo entorno interactivo de la CLI proporciona solicitudes automáticas y ayuda en línea para los comandos gcloud, gsutil, bq y kubectl. No más cambio de contexto cuando buscas nombres de comandos, los indicadores solicitados o tipos de argumento en las páginas de ayuda. Ahora, toda esa información está incluida como parte del entorno interactivo mientras escribes.
El entorno interactivo también admite funciones standard bash como:

  • entremezclar comandos gcloud y standard bash 
  • ejecutar comandos como cd y pwd, y configurar/usar variables de shell entre las ejecuciones de comandos 
  • ejecutar y controlar procesos en segundo plano 
  • variables de shell que se completan con tabulación, y más.

Por ejemplo, puedes asignar el resultado del comando a una variable y más adelante llamar a esa variable como entrada para un comando diferente:

$ active_vms=$(gcloud compute instances list --format="value(NAME)" --filter="STATUS=RUNNING")
$ echo $active_vms

También puedes crear y ejecutar secuencias de comandos bash mientras te encuentras en el entorno interactivo.
Por ejemplo, la siguiente secuencia de comandos recorre todas las instancias de cómputo y reinicia las que han FINALIZADO.

#!/bin/bash
terminated_vms=$(gcloud compute instances list --format="value(NAME)" --filter="STATUS=terminated")
for name in $terminated_vms
do
  echo "Instance $name will restart."
  zone=$(gcloud compute instances list --format="value(ZONE)" --filter="NAME=$name")
  gcloud compute instances start $name --zone $zone 
done

Primeros pasos con gcloud interactive


Una vez que hayas instalado el Google Cloud SDK, prueba gcloud interactivo: (si todavía no lo instalaste, puedes ver las instrucciones en este vínculo)

1.Asegúrate de que los componentes de tu SDK estén actualizados.

$ gcloud components update

2. Instala el componente gcloud alfa.

$ gcloud components install alpha

3. Inicia gcloud interactive.

$ gcloud alpha interactive

[Opcional] Habilita el modo interactivo para gsutil, bq y kubectl (para gcloud está habilitado de forma predeterminada). Ten en cuenta que esto puede demorar algunos minutos, pero solo tendrás que ejecutar este comando una vez.

$ gcloud alpha interactive --update-cli-trees

Sugerencias:


  • Cuando quieras obtener más información sobre el comando actual que escribiste, presiona F8 para abrir la página de referencia en el navegador.
  • Puedes configurar el contexto de la solicitud en cualquier grupo de comandos. Esto es útil si trabajas principalmente con ciertos grupos de comandos, y te ahorra tener que escribir todo el comando cada vez. Puedes hacer esto escribiendo el grupo de comandos y presionando F7.
  • Activa y desactiva el área de ayuda interactiva con la tecla F2.
  • Usa la tecla F3 para cambiar el modo de edición de línea de comando entre emacs y vi.

Aquí en Google Cloud, nos encantan los desarrolladores y queremos que seas lo más productivo posible. Haz clic aquí para obtener más información sobre gcloud interactive, y cuéntanos lo que piensas mediante el comando de comentarios de gcloud. Feliz escritura :)