Google Cloud amplía su plataforma Vertex AI con nuevas herramientas de aprendizaje automático

Google Cloud amplía su plataforma Vertex AI con nuevas herramientas de aprendizaje automático

El negocio de los angeles nube de Google LLC en los angeles actualidad debutó una serie de mejoras a su plataforma Vertex AI que permitirá a las empresas desarrollar device de inteligencia synthetic más rápido.

Introducido el año pasado, Vertex AI es una colección de servicios en los angeles nube para crear modelos de IA. Algunos de los servicios de los angeles plataforma están orientados a empresas expertas en tecnología que construyen redes neuronales totalmente personalizadas desde cero. Otros componentes de Vertex AI están diseñados para ayudar a los desarrolladores con experiencia limitada en aprendizaje automático a crear device de IA más fácilmente.

Las nuevas características que Google Cloud presentó hoy para los angeles plataforma hicieron su debut en los angeles cumbre Implemented ML de los angeles compañía. Las características abarcan múltiples áreas, incluido el entrenamiento de IA, los angeles gestión de datos y los angeles explicabilidad de los angeles pink neuronal.

Entrenamiento de IA más rápido

L. a. primera adición importante a Vertex AI es una capacidad llamada Servidor de reducción. Actualmente en versión preliminar, promete reducir los angeles cantidad de tiempo necesario para entrenar redes neuronales.

Una pink neuronal no puede comenzar a generar información inmediatamente después de su desarrollo, ya que tiene que practicar de antemano en un proceso conocido como entrenamiento de IA. Entrenar una pink neuronal puede requerir una cantidad significativa de tiempo. Para acelerar el proceso, las empresas a menudo entrenan modelos de IA utilizando no un solo servidor sino una flota completa de máquinas, lo que hace posible completar una gran cantidad de prácticas en paralelo.

Las máquinas que utiliza una empresa para entrenar su device de IA deben coordinar su trabajo para garantizar un procesamiento confiable. Esta coordinación generalmente se facilita utilizando un tipo de algoritmo especializado conocido como algoritmo de reducción overall.

Cuanto más eficiente sea el algoritmo de reducción overall que utiliza una empresa, mejor podrán coordinar su trabajo sus servidores de entrenamiento de IA. Eso a su vez permite que las redes neuronales se entrenen más rápido.

L. a. nueva función de servidor de reducción que Google está implementando para Vertex AI se basa en un algoritmo personalizado de reducción overall desarrollado por el gigante de las búsquedas. Según Google, el algoritmo es más eficiente que las tecnologías existentes. Cut back los angeles cantidad de datos que tienen que viajar entre los servidores de entrenamiento de IA mientras se lleva a cabo el procesamiento, lo que libera ancho de banda y también optimiza los angeles latencia de manera más efectiva.

Google cube que el servidor de reducción ha demostrado un rendimiento impresionante en las pruebas comparativas internas. Durante una evaluación que involucró a los angeles in style pink neuronal BERT, el rendimiento del entrenamiento aumentó en un 75 %. El gigante de las búsquedas cube que Aid Server también puede aumentar el rendimiento del entrenamiento para otros tipos de redes neuronales.

“Esto cut back significativamente el tiempo de capacitación requerido para grandes cargas de trabajo de idiomas, como BERT, y permite aún más los angeles paridad de costos entre diferentes enfoques”, explicó Andrew Moore, vicepresidente y gerente basic de los angeles unidad Cloud AI & Trade Answers de Google Cloud. “En muchos escenarios comerciales de misión crítica, un ciclo de capacitación más corto permite a los científicos de datos entrenar un modelo con un mayor rendimiento predictivo dentro de las limitaciones de una ventana de implementación”.

Desarrollo optimizado de IA

L. a. creación de device de IA implica más que solo entrenar una pink neuronal. Los desarrolladores también deben recopilar los datos que se utilizarán para entrenar los angeles pink neuronal, filtrar errores de datos y realizar muchas otras tareas. Los equipos de aprendizaje automático crean flujos de trabajo de device llamados canalizaciones para automatizar los diferentes pasos involucrados en el desarrollo de IA.

L. a. plataforma Vertex AI de Google Cloud está recibiendo una colección de canalizaciones preempaquetadas para construir redes neuronales. Las canalizaciones están disponibles a través de una nueva herramienta llamada Vertex AI Tabular Workflows que ahora está en versión preliminar.

Los flujos de trabajo tabulares de Vertex AI se pueden usar para crear redes neuronales que procesan datos tabulares o datos organizados en filas y columnas. Una parte really extensive de los angeles información comercial de las empresas se almacena en filas y columnas.

Cada una de las canalizaciones disponibles a través de Vertex AI Tabular Workflows se enfoca en facilitar un conjunto diferente de tareas. L. a. canalización de selección de características, por ejemplo, facilita los angeles gestión de características, los puntos de datos que utiliza una pink neuronal para tomar decisiones. Algunas de las canalizaciones incluyen nuevos algoritmos desarrollados por Google Analysis.

“Los flujos de trabajo tabulares están completamente administrados por el equipo de Vertex AI, por lo que los usuarios no necesitan preocuparse por las actualizaciones, las dependencias y los conflictos”, detalló el gerente de productos de Google Cloud, Alex Martin, en un entrada en el blog. “Se escalan fácilmente a grandes conjuntos de datos, por lo que los equipos no necesitan rediseñar los angeles infraestructura a medida que crecen las cargas de trabajo. Cada flujo de trabajo se combina con una configuración de {hardware} óptima para obtener el mejor rendimiento”.

Explicabilidad e integraciones

Google también presentó una serie de otras funciones para su plataforma Vertex AI en los angeles Cumbre ML aplicada hoy. Una nueva capacidad llamada Explicaciones basadas en ejemplos facilitará los angeles resolución de problemas de una pink neuronal que genera resultados inexactos e identificará los angeles causa raíz. Además, Google está implementando nuevas integraciones con Neo4j y Labelbox.

Neo4j es una in style base de datos de gráficos desarrollada por los angeles startup del mismo nombre. Las bases de datos de gráficos están optimizadas para almacenar no solo registros como registros de ventas, sino también información sobre cómo esos registros están conectados entre sí. Usando los angeles nueva integración que Google anunció hoy, los usuarios de Vertex AI obtendrán los angeles capacidad de trabajar más fácilmente con los datos almacenados en Neo4j.

Labelbox Inc., con los angeles que Google también anunció una asociación hoy, es una empresa nueva con sede en San Francisco respaldada por más de $ 188 millones en fondos. Proporciona herramientas que simplifican el proceso de creación de conjuntos de datos de entrenamiento de IA. Google está implementando una integración que permite a los clientes de Vertex AI usar más fácilmente las herramientas de Labelbox para preparar datos de capacitación para sus proyectos de aprendizaje automático.

Imagen: Google

Muestre su apoyo a nuestra misión uniéndose a nuestra comunidad de expertos Dice Membership y Dice Tournament. Únase a los angeles comunidad que incluye Amazon Internet Products and services y el CEO de Amazon.com, Andy Jassy, ​​el fundador y CEO de Dell Applied sciences, Michael Dell, el CEO de Intel, Pat Gelsinger, y muchas más luminarias y expertos.

Pasaporte En Linea